首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 好看的图片不知道怎么写提示词?用AI读出来
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 用AI为古诗词生成插画
· ComfyUI学习笔记:插件安装
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
· WeChaty:强大的微信个人号机器人SDK
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 火山写作:一款助力写作能力提升的AI助手
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
截至25年7月,拥有最长上下文窗口的模型为Magic.dev 的 LTM-2-Mini,据说一次性可以处理1个亿
token
,相当于一次性记住 750 部10万字小说的细节。
上下文工程
AI
Sora
Sora物理悖谬的几何解释
Sora 将视频编码映射到隐空间,再切割成时空补丁,被称为时空令牌(time-space
token
)。
Sora
解释
大模型
回望做大模型一年后的感悟
前一类现在大家基本上都是2T左右
token
起,也有3、4T
token
的数量级的,这类工作即使训练7B的模型也需要几百万的代价,训练30几B的模型更是数千万的成本。
大模型
感悟
RAG
图解检索增强式生成(RAG)技术 | 万字长文
它取决于你使用的嵌入模型及其在
Token
上的处理能力。
检索增强式生成
RAG
大模型
一个产品经理的大模型观察、反思与预测
ensp; 预训练时要处理的数量级:上下文长度通常是 2000、4000 甚至是 100,000(决定GPT在尝试预测序列中的下一个
token
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
活动现场,面壁智能演示了 MiniCPM-1.2B 在 iPhone 15 上流畅的运行效果,推理速度提升 38%,达到了 25
token
/s,是人说话速度的 15 到 25 倍。
MiniCPM
大模型
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
上海交通大学及清华大学发布 包括书生·多模态、书生·浦语和书生·天际等三大基础模型 书生·浦语(InternLM)是国内首个正式发布的支持8K语境长度的千亿参数级语言大模型, 具有1040亿参数,是在包含18000亿
token
生成式AI
Stable Diffusion
免配置、免翻墙,Stable Diffusion平替来了!
LeonardoAi平台采用代币制,每人每天会有150个
token
,渲染一张图大概3~8token,虽然对于设计师来说,非常大量的生图可能会不够用
LeonardoAI
文生图
大模型
OCR终结了?旷视提出可以文档级OCR的多模态大模型框架Vary,支持中英文,已开源!
那么对于现在基于 CLIP 视觉词表的多模大模型也是一样的,遇到 “foreign language image”,如一页论文密密麻麻的文字,很难高效地将图片
token
化,Vary 提出就是解决这一问题
OCR
手写
文字识别
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
research_projects/rag at main · huggingface/transformers · GitHub[2] huggingface: •facebook/rag-
token
-nq
大模型
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
这些限制不利于大型文档仓库: 每个 Assistant 最多支持 20 个文件 每个文件最大为 512 MB 我们在测试中发现了关于
Token
的隐藏限制
RAG
检索
向量库
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
在模型训练中,文本需要分割成
token
,只有一种语言的话,
token
的数量是固定的,但如果涉及另一种语言,
token
的数量就会显著增加,整个扩展的词汇表会更大。
智谱
AI
大模型
如何构建基于大模型的App
请记住,每个LLM都有
token
限制(GPT 3.5的令牌限制为4000个),需要确保整个提示的
token
数不超过单次LLM API 调用的
token
限制。
构建
大模型App
大模型
通俗解读大模型微调(Fine Tuning)
Prompt Tuning的基本原理是在输入序列X之前,增加一些特定长度的特殊
Token
,以增大生成期望序列的概率。
大模型
微调
为什么说AI现在还不行!
假设他一年写一部小说3百万字,放大点算1000万
token
。
大模型
<
...
4
5
6
7
8
9
10
11
12
13
...
>
1
2
4
5
6
7
8
9
100