首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 好看的图片不知道怎么写提示词?用AI读出来
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 用AI为古诗词生成插画
· ComfyUI学习笔记:插件安装
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
· WeChaty:强大的微信个人号机器人SDK
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 火山写作:一款助力写作能力提升的AI助手
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
还推出了可在手机上部署的端测模型ChatGLM3-1.5B和ChatGLM3-3B,支持包括vivo、小米、三星在内的多款手机以及车载平台,甚至支持移动平台上CPU芯片的推理,速度可达20tokens每秒(
token
ChatGLM3
大模型
开源
【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
rm -rf codes_*.npy # 从文本生成语义
token
!
语音克隆
开源模型
LLM
AutoGPT与LLM Agent解析
其中一个典型场景是长 session 的聊天过程,由于 GPT API 本身的输入信息有 4000 个
token
的限制,所以当聊天进行比较久之后,用户经常会发现 ChatGPT 已经“忘了”之前讲过的内容
大模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
nbsp;datasets.Dataset.from_pandas(dftrain) ds_val = datasets.Dataset.from_pandas(dftest) 2,
token
开源模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
model_name = 'YeungNLP/firefly-baichuan-13b' device = 'cuda' max_new_tokens = 500 # 每轮对话最多生成多少个
token
大模型
微调
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
2、LLM Tokens + RS 这种方法基于输入的物品和用户特征生成
token
。
大模型
写作
AI写作不如意?万字长文深度剖析背后原因
因为Claude允许最多的
token
输入,这是我用于这些任务的AI。
AI写作
LLM
Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
例如,在 NVIDIA H100 GPU 上,一个 4 位量化的 14B 模型每秒可生成约 75 个
Token
。
LLM
服务框架
RAG
RAG 2.0来了,它能成为生产落地的福音吗?
专门进行了大海捞针实验(了解:超长上下文窗口大模型的“照妖镜”——大海捞针实验,大模型“打假”必知必会)创建一个不重复的200万
token
的“大海”,使用包含100多个问题的测试集,评估了CLM、固定-
RAG
大模型
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
MoE是一个并行的前馈神经网络,主要由门控模型/路由器(Gating Model/Router)和一组专家模型(Experts Models)构成,当数据输入门控模型/路由器时,系统会根据任务类型将每个
token
MoE大模型
APPa
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
GPT-4目前已知信息如下: 更长的上下文 :ChatGPT支持的最长上下文长度为2048个单词(准确说是
token
),而GPT-4则大幅提升了这个数字,支持最长32768个单词的上下文。
大模型
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
持续更新与调整 ⼤模型都是通过公开可⽤的数据集进⾏预训练的,对单次输⼊⻓度也存在限制,⼀般在 4000 个
Token
大模型
RAG
高级 RAG 技术——图解概览
块的大小是一个需要考虑的因素——它取决于你所使用的嵌入模型以及其在
Token
上的容量。
RAG
检索
图解
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
这些内容被转化成了一种通用的
Token
语言,并在这些不同类型的
Token
上训练大型的Transformer模型,从而形成了一种通用的文本数据模型。
Sora
原理
CodeGeeX:Tab一下,代码自动生成
它是一个从左到右生成的自回归解码器,将代码或自然语言标识符(
token
)作为输入,预测下一个标识符的概率分布。
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100