首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
图解检索增强式生成(RAG)技术 | 万字长文
它取决于你使用的嵌入模型及其在
Token
上的处理能力。
检索增强式生成
RAG
大模型
一个产品经理的大模型观察、反思与预测
ensp; 预训练时要处理的数量级:上下文长度通常是 2000、4000 甚至是 100,000(决定GPT在尝试预测序列中的下一个
token
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
活动现场,面壁智能演示了 MiniCPM-1.2B 在 iPhone 15 上流畅的运行效果,推理速度提升 38%,达到了 25
token
/s,是人说话速度的 15 到 25 倍。
MiniCPM
大模型
大模型
无需翻墙,可合法使用的8款国内AI大模型产品
上海交通大学及清华大学发布 包括书生·多模态、书生·浦语和书生·天际等三大基础模型 书生·浦语(InternLM)是国内首个正式发布的支持8K语境长度的千亿参数级语言大模型, 具有1040亿参数,是在包含18000亿
token
生成式AI
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
这些限制不利于大型文档仓库: 每个 Assistant 最多支持 20 个文件 每个文件最大为 512 MB 我们在测试中发现了关于
Token
的隐藏限制
RAG
检索
向量库
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
research_projects/rag at main · huggingface/transformers · GitHub[2] huggingface: •facebook/rag-
token
-nq
大模型
大模型
OCR终结了?旷视提出可以文档级OCR的多模态大模型框架Vary,支持中英文,已开源!
那么对于现在基于 CLIP 视觉词表的多模大模型也是一样的,遇到 “foreign language image”,如一页论文密密麻麻的文字,很难高效地将图片
token
化,Vary 提出就是解决这一问题
OCR
手写
文字识别
Stable Diffusion
免配置、免翻墙,Stable Diffusion平替来了!
LeonardoAi平台采用代币制,每人每天会有150个
token
,渲染一张图大概3~8token,虽然对于设计师来说,非常大量的生图可能会不够用
LeonardoAI
文生图
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
在模型训练中,文本需要分割成
token
,只有一种语言的话,
token
的数量是固定的,但如果涉及另一种语言,
token
的数量就会显著增加,整个扩展的词汇表会更大。
智谱
AI
大模型
如何构建基于大模型的App
请记住,每个LLM都有
token
限制(GPT 3.5的令牌限制为4000个),需要确保整个提示的
token
数不超过单次LLM API 调用的
token
限制。
构建
大模型App
大模型
通俗解读大模型微调(Fine Tuning)
Prompt Tuning的基本原理是在输入序列X之前,增加一些特定长度的特殊
Token
,以增大生成期望序列的概率。
大模型
微调
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
还推出了可在手机上部署的端测模型ChatGLM3-1.5B和ChatGLM3-3B,支持包括vivo、小米、三星在内的多款手机以及车载平台,甚至支持移动平台上CPU芯片的推理,速度可达20tokens每秒(
token
ChatGLM3
大模型
开源
【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
rm -rf codes_*.npy # 从文本生成语义
token
!
语音克隆
开源模型
为什么说AI现在还不行!
假设他一年写一部小说3百万字,放大点算1000万
token
。
大模型
LLM
AutoGPT与LLM Agent解析
其中一个典型场景是长 session 的聊天过程,由于 GPT API 本身的输入信息有 4000 个
token
的限制,所以当聊天进行比较久之后,用户经常会发现 ChatGPT 已经“忘了”之前讲过的内容
大模型
<
...
4
5
6
7
8
9
10
11
12
13
...
>
1
2
4
5
6
7
8
9
100