首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI声音克隆 | 最全最简教程(权威版)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 保姆级教程:Coze 打工你躺平
· 超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
· 如何保证每次画出的都同一张人脸:Stable Diffusion的Reference only教程
· 剪映专业版智能补帧
· 最受欢迎的15个ChatGPT提示词,优化给ChatGPT用户,拿走不谢
· ComfyUI学习笔记:插件安装
· Suno音乐新手指南(手把手完整版教程)
· Stable Diffusion插件:提示词
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG应用中数据处理过程需
要
注意的事项
重复向量的问题:当数据块在chunks中频繁重复时,数据质量可能
会
下降。
RAG
大模型
RAG
RAG与Long-Context之争—没必
要
争
这也是大家的所“争”之处,因为大模型可以接受的长度越长,那么检索的重
要
性就
会
降低,对检索效果的依赖就
会
降低,也就是为什么有人持观点,未来没有RAG,只有Long-Context。
RAG
Long-Context
大模型
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破
纪
录,自研LPU是英伟达GPU 10倍
对于未来AI应用的服务而言,LPU可能
会
带来与GPU相比巨大的性能提升!
Groq
大模型
学
会
这招,一个头像变100种风格!
有两个地方: 当我们生成了一组图片之后,最下面
会
有一排 V,点击之后可以弹出一个小窗继续修改提示词。
Remix
文生图
Stable Diffusion
AnimateDiff:一篇文章教你学
会
用Stable Diffusion制作GIF动图
安装 AnimateDiff 扩展
要
开始使用,不需
要
从 GitHub 页面下载任何东西。
AnimateDiff
视频
训练
OpenAI
震惊!OpenAI发布Meta-Prompt,未来不再需
要
提示词。
2 请明确描述所需生成图像的主题、风格、颜色、细节以及其他关键
要
素。
Meta-Prompt
提示词
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新
纪
元!
这份计划详细列出了每个段落的主
要
内容和预期字数。
写作
长文本
Prompt
结构化Prompt必备基础:5分钟学
会
Markdown语法,实现提示词创作自由!
需
要
说明的是,Markdown语法在不同平台可能存在一些细微差别。
Prompt
提示词
Markdown
Prompt
Prompt工程如此强大,我们还需
要
模型训练吗?
Few-shot的使用方法较为简单,但实际上Few-shot有非常多的变种方法,其中一类非常重
要
的变种方法就是围绕提示的示例进行修改,即在示例中不仅提供问题+答案,同时还
会
增加一些辅助思考和判断的“提示
大模型
大模型
会
“追问”的Agent,大模型知识库另类实践
即使切片内容准确,不同问题对切片数量的
要
求也不同。
大模型
大模型
大模型应用中大部分人真正需
要
去关心的核心——Embedding
模型
会
直接影响检索和生成的效率,虽然它不是唯一的影响因素。
大模型
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需
要
向量数据库了?
近期, OpenAI 的开发者大
会
迅速成为各大媒体及开发者的热
议
焦点,有人甚至发出疑问“向量数据库是不是失宠了?”
RAG
检索
向量库
LLM
自己电脑上跑大语言模型(LLM)
要
多少内存?
以我用ollama + Lllama 7B 4bit 做推断(Inference,问大模型问题)为例,模型文件大小是3.8G,实际运行的时候电脑内存
会
多占用大概4.8G左右。
大语言模型
运行
实测:本地跑llama3:70B需
要
什么配置
展示一波LLM排名这么帅还不
要
钱,就问你想不想
要
也许从此强大的模型不再只是厂商云端的特权,现在每个人都可以在本地部署Llama 3。
llama
GPU内存
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
一直以来,基于向量的文本检索是重
要
的研究
议
题之一。
GPT
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100