首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI自动生成视频全流程干货
· Suno音乐新手指南(手把手完整版教程)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· GPU 性能(数据表)快速参考
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAT = CoT + RAG
具体实现方法为:用从大型数据
库
中检索到的相关信息,去修正模型生成思维链的每一步,确保每个推理步骤都基于准确和相关的事实。
RAT
协同思维链
检索增强生成
Prompt
AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
将输入到"https://github.com/adieyal/sd-dynamic-prompts.git 扩展git仓
库
的URL"。
AI图片
LLM
实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
后来,我在自己笔记本电脑上用“Ollama+AnythingLLM”搭建了一个本地化的大模型知识
库
,和自己的知识
库
交互,信息安全,内容可靠,不用上网,无限使用。
Ollama
AnythingLLM
阅读
一文读懂GPT-1:生成式预训练如何提升语言理解
无监督预训练 给定一个无标记的大语料
库
u,GPT-1通过最大化以下似然函数来训练语言模型: 其中, k 是上下文窗口的大小。
GPT
StableDiffusion
AI绘画由入门到精通:StableDiffusion精讲课程
模型的下载与使用:详解模型
库
的管理与选择,教授如何下载、安装和调用不同的预训练模型,以应对多元化的创作场景。
SD
视频课程
AI绘画
数字人
开源!数字人资源大集合!
巴拉特·拉尔·巴特纳加尔、克里斯蒂安·斯明奇塞斯
库
、克里斯蒂安·西奥巴尔特、杰拉德·庞斯-莫尔。
数字人
开源
【进阶】-文生图术语解释
缩写/术语 解释 oneshot 一张图 LAION 一个图像数据集
库
&
文生图
ChatGPT
【收藏】那些牛掰的ChatGPT指令爱了~
第一,代码和大模型的数据
库
全是英文去开发的,中文也会最终翻译为中文再去检索。
提示词
prompt
Midjourney
Midjourney AI 绘画美女提示词分享一
国内的AI绘画工具和小程序基本上都是基于这个开源
库
。
Midjourney
文生图
大模型
大模型落地“诸神之战”,场景玩家先杀出重围了
这些逻辑框架主要被写成一个个营销逻辑SOP,形成一个公司内部的知识
库
。
大模型
文生图
开源
生成式AI领域拓展!MetaAI开源AudioCraft:一个支持AudioGen、MusicGen等模型的音频生成开发框架
由于易于构建和重复使用,希望构建更好的声音生成器、压缩算法或音乐生成器的人可以在同一个代码
库
中完成所有操作,并在其他人已有基础上进一步发展。
开源模型
RAG
如何提高RAG 的效果
通过将文本转化为类SQL查询语句直接对数据
库
进行查询拿到结果。
RAG
大模型
一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
芯片供应商为了保证芯片产能就要去晶圆厂锁晶圆然后晶圆厂又设定了非常苛刻的条件,结果就是overbook非常严重,手机厂商一颗芯片料号真实需求1000万颗,最后可能供应商总共备货了1500万颗,多的500万是安全
库
存
AI光年
芯片投资
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?!
最后,作者进行了一个更具实际意义的实验,即从Wikipedia语料
库
中检索一组文档并添加一些无关文档,以模拟现实世界中的应用场景。
RAG
检索
论文
RAG
LangChain - RAG:线上系统多文档要频繁更新,每次都要重新花钱做一次 embedding,老板不批预算,批我...
embedding 之前针对没个 chunk 做一次 hash,记录下来 hash 值,每次源数据更新了只需要在这一步里面比对一下,更新的 chunk 对应的 embedding 删掉,生成新的插入到原有向量数据
库
中就好
大模型
<
...
30
31
32
33
34
35
36
37
38
39
...
>
1
2
4
5
6
7
8
9
100