首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 好看的图片不知道怎么写提示词?用AI读出来
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 用AI为古诗词生成插画
· ComfyUI学习笔记:插件安装
· 图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
· WeChaty:强大的微信个人号机器人SDK
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 火山写作:一款助力写作能力提升的AI助手
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
Prompt 策略:代码库 AI 助手的语义化搜索设计
即: 1.代码的平均
Token
到字符比例约为1:5(300 个
Token
),而嵌入模型的
Token
上限为 512 个。
prompt
OpenAI
OpenAI 无需向量化的 RAG 新架构设计范式剖析
它会提取文本内容,但为了避免超出 GPT-4.1-mini 模型 100 万
Token
的上下文窗口限制,系统只读取前 920 页,这部分内容刚好在大模型可处理范围内。
OpenAI
RAG
架构
工具
3.5k Star! 一分钟搭建一个属于你自己的开发工具箱!——It-tools
Crypto(加密)工具类, 包含
token
生成、哈希文本、UUID生成、加密解密文本等9个不同的功能。
IT-TOOLS
开源模型
Meta
如何微调Meta Llama-3 8B
model.push_to_hub_merged("YOURUSERNAME/llama3-8b-oig-unsloth-merged", tokenizer, save_method = "merged_16bit",
token
Meta
Llama
3
大模型
大模型
从Langchain到ReAct,在大模型时代下全新的应用开发核心
按照输入和输出
token
数量收费方式,让开发者必须斟酌内容和内容带来的价值能否cover住成本。
大模型
开源
最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
total duration: 1.2667079s Load duration: 14.624ms prompt eval count: 9
token
(s) prompt eval duration
Qwen3
开源模型
LLM
个人从零预训练1B LLM心路历程
“处理为统一格式”和“将文本转化为
token
id”的代码在github仓库中给出,小一些的数据集使用了阿里的data-juicer工具进行了过滤,该工具将每个数据处理步骤抽象为一个算子,用户可以方便的配置
LLM
训练
cursor+coze智能体,一行代码没写,我撸了个小程序
此时要记得保存coze的
token
和botid,后面有用。
cursor+coze
智能体
大模型
总结!大模型微调(Tuning)的常见方法
主要结构是利用了一个prompt encoder(BiLSTM+MLP),将一些pseudo prompt先encode(离散
token
)再与input embedding进行拼接,同时利用LSTM进行
微调
大模型
大模型
中文通用大模型最全汇总
据悉,“书生·浦语”具有1040亿参数,基于“包含1.6万亿
token
的多语种高质量数据集”训练而成。
大模型
开源模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
核心是基于transformer架构,利用大量的无标注数据来训练模型对下一个
token
的预测,这也是整个大模型阶段最消耗时间和算力的地方。
大模型
ChatGPT
还在用“You are expert”这种提示词?连ChatGPT都瞧不起你,试试这些Prompt吧
所以,在ChatGPT看来,人工智能并没有因为你告诉它而变得更聪明或知识渊博,而这些都是浪费的
Token
。
prompt
提示词
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
斯坦福博士Silas Alberti由此猜测,Q*很可能是基于AlphaGo式蒙特卡罗树搜索
token
轨迹。
OpenAI
大模型
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
于此同时,因为智能体工作流的特性决定了它总是需要花费一些时间才能生成答案, 所以,快速生成
token
的技术研究也将成为一种趋势。
GPT-5
智能体
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
8B-Instruct模型 pip install -U huggingface_hub mkdir -p /root/model/ huggingface-cli download --
token
Llama3
对话问答模型
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100