首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 17K star!30秒偷走你的声音,开源声音克隆工具
· ComfyUI的特性以及安装流程
· GPT-4o实时语音方案提供商Livekit开源voice agent:轻松处理音视频流
· Suno音乐新手指南(手把手完整版教程)
· 【万字长文-进阶教程】一文带你从入门到精通ChatTTS, 手把手教你固定音色、设置语速、添加停顿词、口头语、笑声!!
· 6个最佳开源TTS引擎
· AIGC系列之一-一文理解什么是Embedding嵌入技术
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
则每次forward的过程如下: 为画图方便,图中所绘是b=
1
时的情况。
开源模型
大模型
语言大模型100K上下文窗口的秘诀
1
为何上下文长度如此重要?
大模型
pdf2htmlEX:效果相当好的一个PDF转HTML程序,和原始PDF几乎一模一样。
1
= 处理完全遮挡的文本(即不放入 HTML 层)。
PDF转换
Stable Diffusion
Stable Diffusion | SD腾讯云3步部署,全程五分钟,附价格费用清单
二、部署SD
1
、登录 Serverless 控制台,选择左侧导航栏中的 Serverless 应用(网址:https://console.cloud.tencent.com/sls)。
下载
开源模型
Stable Diffusion
Stable Diffusion基础:ControlNet之图片高仿
Style Fidelity 值为
1
的效果:色彩更偏重参考图。
文生图
大模型
第一个StableCascade动漫大模型上架了
一、下载并安装模型 StableCascade使用的模型分四种:
1
、A模型 stage_a.safetensors 拷贝至 ComfyUI\models\vae 2、B模型、C模型
StableCascade
文生图
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
比如在多轮对话的情况下,就需要解决一个问题:如果在最新一轮的提问,里面有些指代上文的代词,那么如果直接用这个问题去做召回,很可能会召回错误的知识,比如: 问
1
:&ensp
Prompt
大语言模型
RAG
Prompt
prompt中的分隔符号的正确使用方法
井号的数量表示标题的级别,# 用于最高级标题,## 用于次级标题,以此类推 #数字加点 (
1
.)用途:用于创建有序列表。
prompt
分隔符
Python
Pynsist:一键打包 Python 应用代码成 Windows 安装程序
快速入门:
1
.
Pynsist
程序
ComfyUI
ComfyUI官方使用手册【官网直译+关键补充】
7-
1
."
文生图
图生图
comfyui
大模型
链接大模型与外部知识,智源开源最强语义向量模型BGE
中文语义向量综合表征能力评测 C-MTEB 的实验结果显示(Table
1
),BGE中文模型(BGE-zh)在对接大语言模型最常用到的检索能力上领先优势尤为显著,检索精度约为 OpenAI
embedding
语义向量
开源
9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
▲ 比较常用模型和 LLM API 的上下文长度(数据收集于
1
/2024)。
MemGPT
大语言模型
歪理大集合,谁也跑不了
这个关系只是加减法,但
1
+
1
的结果可能是
1
也可能是0,不是我们经常学的那个数学。
大模型
Prompt
prompt必须知道的26条军规
prompt的创新突破 来自于阿拉伯联合酋长国阿布扎比的大学的学者[
1
],在LLaMA-
1
/2(7B、13B和70B)、GPT-3.5/4上进行了大量实验,提出26条prompt军规,
prompt
大模型
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
1
、train.sh 文件修改 PRE_SEQ_LEN=32 LR=2e-2 NUM_GPUS=
1
torchrun --standalone --nnodes=
1
&ensp
知识库
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100