首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
尽管有很多人诟病Auto-GPT存在巨大的
token
消耗且没有稳定的结果,但是Auto-GTP作为一种基于LLM的自动化案例,极大地挑起开发者的好奇心,类似的
开源模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
检索的粒度可以从最小的词元(
Token
)扩展到词组、句子、段落,甚至是结构化的实体和知识图谱。
知识库
RAG检索增强
大模型
万字长文,AI大模型的应用实践总结
从表格中可以看到,对于像ChatGLM-6B、LLaMA、Bloom这类大模型,要保证基座模型有比较好的效果,至少需要保证上千亿、万亿级的
Token
量。
大模型
Prompt
硬核Prompt赏析:HuggingGPT告诉你Prompt可以有多“工程”
比如文本生成类的模型,有10000+个,gpt-3.5-turbo的
token
限制是4096,显然不能包含这个类别的所有模型描述。
提示词
prompt
对于AI,我们现阶段可以有的态度
【Claude:】 作为ChatGPT3.5类似级别的大语言模型,基本能力差不多,据说最近有了个新能力,就是一口气能吃10w个
token
的数据量,这是目前其他大语言模型还做不到的。
文生图
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
Ilya(Ilya Sutskever,OpenAI 首席科学家)说如果能做到预测 Next
Token
,就离通用人工智能不远了。
大模型
详解
Sora
OpenAI Sora视频生成模型技术报告中英全文+总结+影响分析
这种范式的成功在一定程度上得益于使用词元编码/令牌(
token
),它们巧妙地统一了文本的多种形式——代码、数学和各种自然语言。
sora
openai
视频生成
9个范例带你入门langchain
close and it was really, really big. 2,长文本总结 对于文本长度较短的文本我们可以直接这样执行summary操作 但是对于文本长度超过lLM支持的max
token
大模型
如何用大语言模型构建一个知识问答系统
分片要使用 tokenizer,原始文本经过分词然后再进行 embedding,分片大小需要考虑分词之后生成的
token
数量。
知识库
大模型
宁德核电推出全球参数量最大的核工业大模型|InfoQ 独家
此外,「锦书」拥有中国最大的核工业大模型语料库,训练语料超过 20 亿
token
,涵盖了核运行、核物理、核燃料、水化学十余类通用核工业语料以及规程、系统设计书、经验反馈单等十余种工作文件语料。
宁德核电
大模型
大模型
语言大模型100K上下文窗口的秘诀
上下文窗口(context window)是指语言模型在进行预测或生成文本时,所考虑的前一个词元(
token
)或文本片段的大小范围。
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
舍弃词汇 Mapping 的 Verbalizer 的使用,重新利用 [CLS] 和字符标签,跟传统微调方法一样利用 cls 或者
token
的输出做自然语言理解,以增强通用性,可以适配到序列标注任务
大模型
微调
Agent
用了一个月,终于找到点写 AI Agent 的思路
但这种处理方式比较耗
Token
,而且项目开发的早期,Prompt、Task、环境感知都没有准备完善,很难有好的效果。
AI
Agent
Ops
运维工具
LLM
StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作长篇小说,探索无限长度文本
01 — 在和ChatGPT这类的大模型LLM对话时,有时候会感觉好像在与一只七秒记忆的鱼对话,因为它能处理的令牌
token
长度是有限制的。
大模型
llm框架
大模型
姚班天才开发《完蛋!我被大模型包围了》游戏爆火,一日用户过万挤爆服务器
但事实证明,这个想法有些太简单了: 先不说大模型的数数能力,就算能数好,大模型眼里的基本元素是
token
,而不是我们所看到的文字…… 随着游戏的深入,问题变得越来越刁钻,解法中包含的运气成分……也越来越少了
大模型
游戏
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100