首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 腾讯开源的数字人MuseTalk到底行不行?
· Stable Diffusion教程:绘制3D风格的手办公仔
· 14.6K star!最好用的OCR文字识别项目,没有之一!
· PPT又又有新突破了!智谱AI代码流造PPT
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
· Prompt逆向工程:轻松复刻OpenAI“神级”提示词
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
揭秘DeepSeek:一个更极致的中国技术理想主义故事
「暗涌」:你觉得AGI还要多久实现,发布DeepSeek V2前,你们发布过代码生成和数学的模型,也从dense模型切换到了
MOE
,所以你们的AGI路线图有哪些坐标?
DeepSeek
大模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
专家混合(Mixture of Experts):Mixtral因其出色的性能重新流行了
MoE
架构。
LLM
大模型
GitHub
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
混合专家系统(Mixture of Experts,
MoE
)是将预测建模任务分解为若干子任务和训练一个专家模型(Expert Model)开发一个门控模型(Gating Model)。
大模型
大模型
炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
与VITA相比,具有约12亿激活参数的
MoE
全模态LLM Baichuan-Omni(7B)在所有通用视频问答基准测试上均优于它,平均提高了约4%。
Baichuan-Omni
多模态大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100