首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 好看的图片不知道怎么写提示词?用AI读出来
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 用AI为古诗词生成插画
· ComfyUI学习笔记:插件安装
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
· WeChaty:强大的微信个人号机器人SDK
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 火山写作:一款助力写作能力提升的AI助手
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG与Long-Context之争—没必要争
很多极端的人说可能就不存在领域大模型了,但仔细想想,即使Gemini支持1M
Token
、Kimi-Chat支持200w字,也就是400多个PDF(假设一个PDF平均有5k字),垂直领域(不抬杠,这里特指一些大领域
RAG
Long-Context
大模型
一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
transformer,怎样增加带宽和显存容量,以GPT3为例,他把全世界的知识压缩到了1750 亿参数的大模型里,对于芯片来讲,现在很大的瓶颈是数据交换,上下文尤其是长文本拥有巨大的信息量,生成一个
token
AI光年
芯片投资
Sora
Sora懂不懂物理世界?
的基本原理 Sora的训练集为短视频集,每个样本是一个短视频,Sora将其编码到数据空间进行降维,然后在隐空间中将特征向量切割成补丁,加上时间顺序,构成时空补丁,亦即时空令牌(time-space
token
文生视频
视频生成
sora
QWen1.5: 卓越模型之路
model.is_quantized = load_in_8bit or load_in_4bit # make sure
token
Qwen1.5
开源模型
理解 o3 及其技术分析
但这个图有几个注解: o3模型是针对该测试集优化过的,也就是图里Tuned所指的 目前o3的 high-compute 模式定价还没有确定,所以图例的定价并不对,大概只是Arc基于
token
o3
技术分析
ChatGLM
chatglm3基础模型多轮对话微调
其实数据处理chat_data_module.py中会拼接一些
token
就是拼接user、assistant、换行等特殊
token
SFT的方式 假设SFT的数据为 Q1,A1,Q2,A2,Q3,
ChatGLM
微调
开源
只需四步就能构建自己的Agent!达摩院新开源框架小白也能用
2、配置config文件,ModelScope
token
和构建API工具检索引擎。
大模型
大模型
大模型微调方法总结
与提示(prompt)不同的是,前缀完全由自由参数组成,与真正的
token
不对应。
开源模型
大模型
大模型:泛化即智能,压缩即一切
是的,如果我们已经将数据集中的每一个
token
都看过了一遍,那么所谓的 "training loss" 其实就是 "next
token
validation loss"。
大模型
泛化
实现聊天机器人打字机形式输出内容:SSE原理介绍及Post实现方式
signal, headers: { 'Content-Type': 'application/json',
token
大模型
微调
大语言模型微调:定制自己的微调数据集
这里补充一句,在相关研究中,数据集长度通常采用
token
数或指令条数进行计算。
大模型
Meta
学术党狂喜,Meta推出OCR神器,PDF、数学公式都能转
在训练过程中,研究团队也会通过随机替换
token
的方式,对实际文本添加扰动。
大模型
一文带你认识ELMo
2.2 双向语言模型 假定一个序列有N个
token
,即 (t1,t2,...
embedding
大模型
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
依赖
token
化器
token
化器带来了一些挑战,比如计算开销、语言依赖性、对新词的处理、固定词汇量、信息丢失和人类可解释性低。
开源模型
AI Comic Factory:AI(连环)漫画生成器
要激活它,请创建一个 .env.local 配置文件: LLM_ENGINE="INFERENCE_API" HF_API_TOKEN="Your Hugging Face
token
生成式AI
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100