首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· ComfyUI官方使用手册【官网直译+关键补充】
· llm-action:让天下没有难学的大模型
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· ComfyUI学习笔记:插件安装
· ComfyUI安装及生成第一张图
· 五大AI工具自动生成PPT效果对比
· QAnything:网易有道最新开源的“本地化部署知识库”AI问答系统
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 说真的,学会用SD做电商图,你才是真的入了门
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
· · 总成
本
(拥有解决方案的总成
本
是多少?)
生成式AI
语音
6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
高质量、多语言、
本
地推理、完全免费。
MeloTTS
语音工具
大语言模型的拐杖——RLHF基于人类反馈的强化学习
本
质上,RLHF技术使用了一种交互式学习方法,当模型生成一条文
本
时,它会请求用户对其进行评估,例如问用户是否觉得该文
本
合理、准确、有意义等等。
大模型
训练
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
一、大模型训练稳定性方面 单机训练不起来,环境配置问题: GPU的CUDA驱动需和深度学习框架版
本
拉齐,否则模型跑不起来如GPU的CUDA verison是11.4,那就选择pytorch的版
本
为1.12.1
大模型
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
(目前主流的解决方法是利用闭源大模型(如 GPT-4)进行评估,但这种通过调用 API 的评估方式则需要消耗大量的时间和金钱成
本
。)
Auto-J
大模型
Agent
AI Agent / 智能体观察笔记(下)
把自己给“关了”HyperWriteHyperwrite是一个基于Chrome浏览器插件的智能体,它非常谦虚,目前版
本
号是”Aplha v0.01“。
大模型
开源
从声纹模型到语音合成:音频处理 AI 技术前沿 | 开源专题 No.45
该项目还提供了其他功能: · MusicGen:一种最新技术实现的可控文
本
到音乐模型。
AudioCraft
音频
Midjourney
Midjourney各国的AI新娘
墨西哥 马来西亚 韩国 越南 葡萄牙 英国 美国 爱尔兰 泰国 波兰 法国 日
本
新加坡 挪威 意大利 德国
文生图
Midjourney
新娘
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!!
令人兴奋的是,Phi-3 Mini 是开源的,这意味着任何人都可以免费在
本
地使用它。
Phi-3
Mini
人工智能
RAG
RAG 2.0,终于把RAG做对了!
例如,撰写
本
文时,ChatGPT的数据更新至2023年4月。
RAG
大语言模型
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
随着当前多模态模型的发展,它可以同时处理文
本
和图像,「那么能否将多模态模型应用到RAG系统呢?」
大模型
研究
ChatGLM
更快更好的chatglm3来了
目前,
本
项目团队未基于 ChatGLM3 开源模型开发任何应用,包括网页端、安卓、苹果 iOS 及 Windows App 等应用。
开源模型
ChatGLM
Agent
AI领域的agent是什么意思?
长期记忆(Long-Term Memory, LTM):长期记忆可以储存信息很长一段时间,从几天到几十年,其储存容量基
本
上是无限的。
大模型
大模型
大模型微调数据选择和构造技巧
如果说我们直接采样一批线上的图文文
本
,直接送给标注的话,会存在一个严重的问题:他们标注的数据大部分都是攻略类,技术类比较少,标了3个月才攒了几千条大模型技术文
本
,但是攻略类已经成几万了。
大模型
微调
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
面壁智能 CTO 曾国洋告诉 AI 科技评论,他们从 2020 年 GPT-3 出来后开始训练大模型,也是走过一些弯路后才逐渐认识到,“提升模型效果是大模型训练的根
本
目标,但这并不意味着一定要通过扩大参数量规模和燃烧高昂的算力成
本
来实现
Grok-1
开源模型
<
...
54
55
56
57
58
59
60
61
62
63
...
>
1
2
4
5
6
7
8
9
100