首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
AI国力战争:GPU是明线,HBM是暗线
众所周知,大模型的智力涌现,依托于
Scaling
laws指导下的大力出奇迹,大模型对数据量和算力有着近乎无上限的需求,而算力的发动机GPU和存储池HBM,意外成为最大的受益者。
GPU
HBM
大模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
7.3 GPU效率计算 最后,在实验这块,咱们再来说说柱状图的weak
scaling
指标是怎么算出来的。
开源模型
大模型
大模型套壳祛魅:质疑套壳,理解套壳
直到 2020 年,OpenAI 发布一篇论文,首次提出了
Scaling
Laws(尺度定律),NLP 的研究才正式进入大模型时代——大模型基于「大算力、大参数、大数据」,模型性能就会像摩尔定律一样持续提升
大模型
套壳
大模型
一个产品经理的大模型观察、反思与预测
双向编码器表征模型) 2018年:OpenAI GPT(Generative Pre-trained Transformer / 生成式预训练转换器)
Scaling
工作
通义千问
必看!阿里通义千问完整技术报告
QWEN 还包括两种注意力机制:LogN-
Scaling
(Chiang&Cholak,2022年;Su,2023a年)和窗口注意力(Beltagy等人,2020年)。
大型语言模型
报告
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
Deepnet:
Scaling
transformers to 1,000 layers[J]. arXiv preprint arXiv:2203.00555, 2022. 10.
大模型
微调
训练
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
Scaling
laws:描述了基于模型大小、数据集大小和用于训练的计算量预期的模型性能。
LLM
大模型
GitHub
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
· 2017 年关于 LSTM 的 MoE 论文 https://arxiv.org/abs/1701.06538 · 面向 MoE 的 Deepmind
Scaling
Laws
Transformer
大模型
大模型实践总结
高效微调技术目前存在的两个问题: 相比全参数微调,高效微调技术目前存在的两个问题: 推理速度会变慢 模型精度会变差 影响大模型性能的主要因素 OpenAI的论文
Scaling
大模型
训练
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
首先,在技术方面,RAG模型的
Scaling
Law规律需要进一步研究,以实现模型规模的有效控制和优化。
知识库
RAG检索增强
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
一股是技术信仰派,他们大多技术出身,认为应该像OpenAI一样信仰AGI、信仰
scaling
law(规模定律),思维更偏硅谷。
朱啸虎
AGI
大模型
万字长文,AI大模型的应用实践总结
模型精度会变差 10 影响大模型性能的主要因素 OpenAI的论文
Scaling
Laws for Neural Language Models中列举了影响模型性能最大的三个因素:计算量
大模型
开源
国内外开源大语言模型一览表
100% RNN) language model, which is the only RNN (as of now) that can match transformers in quality and
scaling
大模型
<
1
2
3
>
1
2
4
5
6
7
8
9
100