首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· AI Agent新对决:LangGraph与AutoGen的技术角力
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· 使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
· Suno音乐新手指南(手把手完整版教程)
· SD入门教程二:文生图基础用法(提示词)
· Stable Diffusion教程:绘制3D风格的手办公仔
· 确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
· 最新【Fooocus】支持controlnet!生图效果惊艳,附带保姆级安装教程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
Falcon 180B 开源影响了谁?
就像令蒋磊疑惑的一点是,为什么到了现在还没有出现
MoE
的Llama。
大模型
大模型
万字长文,AI大模型的应用实践总结
对于以Transformer、
MOE
结构为代表的大模型来说,传统的单机单卡训练模式肯定不能满足上千(万)亿级参数的模型训练,这时候我们就需要解决内存墙和通信墙等一系列问题,在单机多卡或者多机多卡进行模型训练
大模型
大模型
投资人逃离大模型
其推出的“Step系列”通用大模型,让业内人士眼前一亮,其Step-2万亿参数
MoE
语言大模型,更是国内首家发布。
大模型
大模型
大模型训练工程那些事
为了跟上这种节奏就不得不紧锣密鼓地进行 算力的扩展(构建 4k 集群,万卡集群) 探索更高效的模型训练方式(比如
MoE
训练) 展示模型的差异化能力(超长上下文的效果
训练工程
大模型
大模型
大模型套壳祛魅:质疑套壳,理解套壳
他预测,未来大模型算法研究必然朝着 Infra 的方向去探索:稀疏化(Sparse Attention、 Sparse GEMM /
MoE
) 将会是 2024 年学术界与工业界的主战场。
大模型
套壳
揭秘DeepSeek:一个更极致的中国技术理想主义故事
「暗涌」:你觉得AGI还要多久实现,发布DeepSeek V2前,你们发布过代码生成和数学的模型,也从dense模型切换到了
MOE
,所以你们的AGI路线图有哪些坐标?
DeepSeek
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
专家混合(Mixture of Experts):Mixtral因其出色的性能重新流行了
MoE
架构。
LLM
大模型
GitHub
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
混合专家系统(Mixture of Experts,
MoE
)是将预测建模任务分解为若干子任务和训练一个专家模型(Expert Model)开发一个门控模型(Gating Model)。
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100