首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· 社区供稿|GPT-4 与国产模型,大!横!评!
· 数字人直播哪家强?中国数字人平台分析大全
· StableDiffusion模型推荐系列(全能型)
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· 图解 transformer——逐层介绍
· 换脸软件 FaceFusion 保姆级教程
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· 秘塔AI搜索
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
高效选择:Ollama与LM Studio深度对比
这对于喜欢参与社区、
推
动项目发展的IT人士来说,是一个不可多得的机会。
Ollama
LM
Studio
对比
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
而微调GPT则依赖于模型在训练期间编码的知识,这些知识随着时间的
推
移可能变得过时或不完整。
知识库
langchain
新模型Cascade你真的用对了吗?!
潜空间可以简单理解为ai计算生成图片的区域,潜在空间越小,
推
理速度就越快,训练成本也就越低。
Stable
Cascade
模型
最顶尖的大语言模型人才,只关心这10个挑战
NeVA: NeMo Vision and Language Assistant (NVIDIA, 2023) 04提高LLMs的速度和降低成本 GPT-3.5于2022年11月末首次
推
出的时候
大语言模型
大模型
最透彻的大模型PPO原理和源码解读
为了解答这个问题,我翻阅了很多资料,看了许多的公式
推
导,去研究RLHF的整体框架和loss设计。
PPO
大模型
源码解读
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“scaling law”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从
推
理成本来看chatgpt
大模型
感悟
AIGC
300天里,我帮你踩遍了AIGC创业的各种坑
大约300天前,在彻底厌倦
推
诿扯皮死气沉沉的办公室工作之后,我和伙伴们开启了AIGC的创业之路。
AIGC
创业
换脸
AI换脸:FaceFusion 3.5.0更新,解决老版本无法使用问题!
后来只能全部
推
倒,按官方提供的安装程序和安装提示重新制作了运行环境。
FaceFusion
文生图
你的下一个浏览器,可以是豆包电脑版!
在右侧,也可以整体做“全文调整”和“调整长度”等优化(“阅读水平”将在后续
推
出)。
豆包
浏览器
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
如果该技术未针对您的用例进行优化,则会增加模型训练和
推
理的计算成本。
训练
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可
推
理和微调
开源模型
RAG
12个RAG常见痛点及解决方案
提高RAG
推
理能力的一个好方法是添加查询理解层——在实际查询向量存储之前添加查询转换。
RAG
大模型
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
"bos_token": "<|begin_of_text|>", "eos_token": "<|end_of_text|>" } 6、
推
理验证
Llama3
对话问答模型
Sora
中学生能看懂:Sora 原理解读
随着时间的
推
移,这些小区域中的信息会随着物体的移动或场景的变化而变化,从而在时间维度上添加了动态信息。
Sora
原理
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
这种方法使得使用大型语言模型(LLMs)进行高效
推
断成为可能,最多可以实现20倍的压缩,而性能损失很小。
LLMLingua
LlamaIndex
开源框架
<
...
55
56
57
58
59
60
61
62
63
64
...
>
1
2
4
5
6
7
8
9
100