首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· 13个神级Chatgpt指令,助你小说丝滑过审
· Suno音乐新手指南(手把手完整版教程)
· 微软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
· 盘点字节跳动最新的AI应用
· 我去,找到一个Github上非常优秀的AI项目,可控制鼠标、键盘,模拟人类操作,太丝滑,收藏~~~
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 造梦师手记:C站最受欢迎的大模型推出了SFW版
· OCR是什么以及推荐几款开源中文OCR识别软件
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
赚钱
你还在为钱发愁?2023年十大赚钱GPT Prompts高级指南!(国际版)
Include community sharing sessions in the coaching framework to leave open the
scaling
potential of
prompt
大模型
回望做大模型一年后的感悟
但现在大家都在讨论“
scaling
law”还能不能持续下去,GPT5可能带来的能力提升是什么;chatgpt用户量增长几乎平了,productivity类的产品会不会有增长天花板,从推理成本来看chatgpt
大模型
感悟
大模型
中国大模型「顶流群聊」笔记
他说很快大家就会发现,做过大模型 Infra 的人比做大模型的人还要贵、更稀缺;而会做
Scaling
Law(扩展定律,模型能力随着训练计算量增加而提升)的人比会做大模型 Infra 的人更稀缺。
大语言模型
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
斯坦福 | 上下文
Scaling
Laws 论文:https://arxiv.org/pdf/2410.16531 本文研究了上下文学习(ICL)在不对模型进行微调训练的情况下提高语言模型执行复杂任务的能力
大模型
研究
揭秘DeepSeek:一个更极致的中国技术理想主义故事
Scaling
Law也在被如此对待。
DeepSeek
大模型
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
Ng also suggests the concept of
scaling
up from one to multiple intelligent agents with distinct functionalities
GPT-5
智能体
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
类Sora模型架构,
scaling
law得到验证 先从模型的设计说起,这当中主要应当考虑两方面的因素,一是足够强的拟合能力,二是足够多的参数容量。
可灵
快手
文生视频
AIGC
《构建个人知识图谱》:让 AIGC 帮你自动构建知识图谱
as K8s, is an open-source system for automating deployment,
scaling
提示词
文生图
AIGC
大模型
大模型:泛化即智能,压缩即一切
如果你认同
Scaling
Law定律,你就应该相信通过大量不同的数据来追求长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
Sora
OpenAI视频模型Sora的推理生成成本多高?
、大显存 LLM 推理芯片,可以绕开芯片制程的瓶颈迅速商业化 测算 GPT-4 的训练算力需求 首先估算 GPT-4 的算力需求, 根据 OpenAI 的 Paper:
Scaling
Sora
推理
算力
大模型
大模型时代-行业落地的再思考
而且,该阈值和预训练模型的大小,预训练时原始数据的比例等条件都息息相关,需要在实践中反复修正(这个时候就能看出
scaling
law的重要性了)。
大模型
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
· 它可以与其他解码策略结合使用,例如温度调节(Temperature
Scaling
)、重复惩罚(Repetition
大模型
Sora
Stablediffusion3论文下载-确定了Stablediffusion3与Sora的架构是一致的
这篇论文的标题是《
Scaling
Rectified Flow Transformers for High-Resolution Image Synthesis》,作者是来自Stability AI的多位研究人员
SD
论文
理解 o3 及其技术分析
虽然我过去曾是LLM半结构化输出的鼓吹者,但我目前认为某种程度的细粒度Thought结构化是不容易实现的,考虑到OpenAI的开发时间,以及结构化并不能很好
scaling
到各个领域,这个方式也不像是符合
o3
技术分析
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
#65533;�����) q, k, v是输入数据,在微调过程中仅改变输入的序列长度并不会改变权重矩阵 推荐材料
Scaling
训练
微调
<
1
2
3
>
1
2
4
5
6
7
8
9
100