首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
Stable Diffusion教程:提示词
需要注意 Stable Diffusion 的提示词数量是有限制的,限制的单位是
Token
,有时翻译成词元,一般1个单词就是1个
Token
(标点符号也会计入
Token
数量),但是如果 Stable Diffusion
提示词
SD
绘画
大模型
炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
这个卷积步骤有助于调节视频
Token
序列的长度,确保至少182个
Token
,最多546个
Token
。
Baichuan-Omni
多模态大模型
大模型
OpenAI开源大模型调测工具Transformer Debugger:可以在训练大模型之前理解模型的运行情况并干预
例如,我们可以利用它来探讨“为什么面对同一个输入提示,模型会选择输出
Token
A而不是
Token
B?”
大模型
调试工具
开源
DeepSeek V3刷屏,550万元2000张卡做出的开源模型,和OpenAI几亿烧出来的一样好
多
Token
预测目标(Multi-
Token
Prediction Objective, MTP)传统语言模型一次只预测一个
Token
,训练信号较为稀疏,数据效率低。
DeepSeek
V3
开源模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
接下来先在本地输入自己的HuggingFace的密钥,首先需要在页面生成token:https://huggingface.co/settings/tokens 然后复制
token
后,运行如下命令配置
大模型
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
下面展示了
token
的KV缓存对GPU内存的占用情况。
Decoder-Decoder
YOCO
架构
大模型
大模型外挂知识库优化-大模型辅助向量召回
每生成固定的n个
token
就召回一次。
大模型
大模型
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
遮蔽语言建模(MLM)目标在只是编码模型中使用,以及在解码器模型中使用的下一个
token
预测目标,都是令
token
级预测任务。
大模型
大模型
全球最强大模型一夜易主,GPT-4时代终结!Claude 3提前狙击GPT-5,3秒读懂万字论文理解力接近人类
Haiku可以在不到3秒时间,阅读一个包含图表和图形的信息和数据密集型的研究论文(大约10k
token
)。
claude
大模型
大模型
最透彻的大模型PPO原理和源码解读
再回想一下gpt模型做推理的过程:每个时刻只产生一个
token
,即
token
是一个一个蹦出来的,先有上一个
token
,再有下一个
token
。
PPO
大模型
源码解读
LLM
4种通过LLM进行文本知识图谱的构建方法对比介绍
提示也非常简洁(约41个
token
),不会占用太多的字符。
知识图谱
大模型
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
基于其领先的视觉
token
密度,MiniCPM-V 2.6 成为了首个支持在 iPad 等端侧设备上进行实时视频理解的多模态大模型。
minicpm
面壁
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
例如,在大约十亿参数的预算下,OpenELM的准确率较OLMo提升了2.36%,且预训练所需的
Token
数量减少了一半。
OpenELM
大模型
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
CodeShell:性能最强的7B代码基座大模型 CodeShell构建了高效的数据治理体系,通过冷启动预训练5000亿
Token
,代码生成性能超过了CodeLlama-7B与StarCoder-7B
开源模型
AI编程
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
模型训练的上下文长度为 8192 个
token
。
开源模型
Gemma
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100