首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 好看的图片不知道怎么写提示词?用AI读出来
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 用AI为古诗词生成插画
· ComfyUI学习笔记:插件安装
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
· WeChaty:强大的微信个人号机器人SDK
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 火山写作:一款助力写作能力提升的AI助手
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
舍弃词汇 Mapping 的 Verbalizer 的使用,重新利用 [CLS] 和字符标签,跟传统微调方法一样利用 cls 或者
token
的输出做自然语言理解,以增强通用性,可以适配到序列标注任务
大模型
微调
Agent
用了一个月,终于找到点写 AI Agent 的思路
但这种处理方式比较耗
Token
,而且项目开发的早期,Prompt、Task、环境感知都没有准备完善,很难有好的效果。
AI
Agent
Ops
运维工具
LLM
StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作长篇小说,探索无限长度文本
01 — 在和ChatGPT这类的大模型LLM对话时,有时候会感觉好像在与一只七秒记忆的鱼对话,因为它能处理的令牌
token
长度是有限制的。
大模型
llm框架
大模型
姚班天才开发《完蛋!我被大模型包围了》游戏爆火,一日用户过万挤爆服务器
但事实证明,这个想法有些太简单了: 先不说大模型的数数能力,就算能数好,大模型眼里的基本元素是
token
,而不是我们所看到的文字…… 随着游戏的深入,问题变得越来越刁钻,解法中包含的运气成分……也越来越少了
大模型
游戏
一人搞定30万商品分类:AI落地实践故事!
由于AI推理的一定局限性和输出有
token
限制,我们不要一次性让它生成所有的商品分类。
embedding
大数据
分类
基于 Kimi Chat 的 AI 渐进式阅读法
这导致了大量输出
token
数的浪费 并且在让 AI 阅读文章,生成内容的过程中,加入大量本不属于文章内容的专有名词解释,这样的上下文可能会误导 AI 的总结效果,让 AI 产生更多的幻觉。
Kimi
Chat
阅读
神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
结构化提示创建(Structured prompt creation) 按照特定格式创建结构化提示,如“[full transcription][word][duration
token
][audio
OuteTTS-0.1-350M
音频
大模型
预训练对话大模型深度解读
论文地址:arxiv.org/abs/2109.09… 3.7 LaMDA 由Google研发,基于Decoder-Only架构,参数量137B,在2.81T的
token
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
从上图可以看到,参数规模和训练的
token
数是正相关的,以gpt3为例,它有1750亿参数,其训练的
token
量达到了2000亿,据说包含了全球所有公开的文本信息,自然它能什么都懂就不奇怪了。
LLM
大模型
大模型套壳祛魅:质疑套壳,理解套壳
相较于 Embedding 和 Prompt 两者需要消耗大量的
Token
,微调是训练大模型本身,消耗的
token
更少,响应速度也更快。
大模型
套壳
LLM
2023年LLM如何入门?请看这篇综述!
ensp; 能力评估Capacity Evaluation 二、LM的四个发展阶段 一般而言,LM的目标是建模单词序列的生成概率,以预测未来的或缺失的
token
大模型
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
这使得电信大模型的中文训练数据超过25TB,中文总
token
量超8万亿。
开源大模型
电信
大模型
关于大模型驱动的AI智能体Agent的一些思考
个人观点: 我认为LLM像人脑一样需要记忆的是概念以及运用概念的能力(概念组合的方法,概念拆解的方法,概念转化的方法),LLM中的
token
=人脑中的概念,LLM的网络结构MLP+attention机制
大模型
文心一言
揭秘Baichuan 3超越GPT-4的中文实力!文心一言、GLM 4.0也甘拜下风?全方位对比测试大揭秘!
这位选手可谓是量大管饱,支持高达100k个
Token
(约75,000个词)的生成。
Baichuan
3
大模型
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
我们发现的一个有趣的事情是,即使有700亿个
Token
,我们也认为它会变得更加饱和。
Llama
3
大语言模型
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100