首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 99%的人都不懂的Stable Diffusion高级功能,Negative Prompt如何正确使用?
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 造梦师手记:华夏之美,SDXL时代的第一个国风模型和汉服LoRA
· Gpt写小说,常用的中文指令集「实操篇」
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
Falcon 180B 开源影响了谁?
就像令蒋磊疑惑的一点是,为什么到了现在还没有出现
MoE
的Llama。
大模型
大模型
万字长文,AI大模型的应用实践总结
对于以Transformer、
MOE
结构为代表的大模型来说,传统的单机单卡训练模式肯定不能满足上千(万)亿级参数的模型训练,这时候我们就需要解决内存墙和通信墙等一系列问题,在单机多卡或者多机多卡进行模型训练
大模型
大模型
投资人逃离大模型
其推出的“Step系列”通用大模型,让业内人士眼前一亮,其Step-2万亿参数
MoE
语言大模型,更是国内首家发布。
大模型
大模型
大模型训练工程那些事
为了跟上这种节奏就不得不紧锣密鼓地进行 算力的扩展(构建 4k 集群,万卡集群) 探索更高效的模型训练方式(比如
MoE
训练) 展示模型的差异化能力(超长上下文的效果
训练工程
大模型
大模型
大模型套壳祛魅:质疑套壳,理解套壳
他预测,未来大模型算法研究必然朝着 Infra 的方向去探索:稀疏化(Sparse Attention、 Sparse GEMM /
MoE
) 将会是 2024 年学术界与工业界的主战场。
大模型
套壳
揭秘DeepSeek:一个更极致的中国技术理想主义故事
「暗涌」:你觉得AGI还要多久实现,发布DeepSeek V2前,你们发布过代码生成和数学的模型,也从dense模型切换到了
MOE
,所以你们的AGI路线图有哪些坐标?
DeepSeek
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
专家混合(Mixture of Experts):Mixtral因其出色的性能重新流行了
MoE
架构。
LLM
大模型
GitHub
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
混合专家系统(Mixture of Experts,
MoE
)是将预测建模任务分解为若干子任务和训练一个专家模型(Expert Model)开发一个门控模型(Gating Model)。
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100