首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 盘点字节跳动最新的AI应用
· 小学生都能看懂的 Prompt 高级技巧: Few-Shots 、 COT 、 SC、 TOT 、 Step-Back
· 智能知识图谱SmartKG和pySmartKG简介
· [Stable Diffusion]SD安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件
· Stable Diffusion高级教程 - 图生图(img2img)模式
· 解读 | SuperCLUE 2023年9月全面测评大模型四大能力
· 实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
· Agent四大范式 | 综述:全面理解Agent工作原理
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
预训练数据集RedPajama-Data-1T已开源,包括七个子集,经过预处理后得到的
token
数量大致可以匹配Meta在原始LLaMA论文中报告的数量,并且数据预处理相关脚本也已开源。
大模型
了解Kimi必看的26个问题 | Kimi系列文(二)
上线即支持20万汉字的长上下文,相当于约30~40万
token
,远超当时Claude2的10万和GPT-4的3.2万。
Kimi
大语言模型
RAG
12个RAG常见痛点及解决方案
/llamaguard_pack" ) # you need HF
token
with write privileges for interactions
RAG
大模型
我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译]
这非常关键,因为你的提示是作为一个长的
Token
序列一次性传给模型的。
GPT-4
提示词
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新纪元!
损失计算:采用
token
平均损失计算策略,避免长文本样本在训练中被忽略。
写作
长文本
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
其实就是总结几百页PDF文档的原理,比如让大模型总结一本书,肯定是超
Token
上限了嘛,所以可以使用一系列查询来总结文档的每个部分。
OpenAI
Prompt
提示词
Stable Diffusion
Stable Diffusion WebUI v1.8.0重大更新!
扩展不区分大小写 · 如果扩展页面未加载,请防止应用 · 调用img2img中正确的
token
SD
画图
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
但总体来说,至少在当下,你并不是在询问某个神奇的 AI,而是在向背后的人类数据标注员提问——他们的集体知识和经验被压缩并转化成了大语言模型中的
token
序列。
Freysa
智能体
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
其实就是总结几百页PDF文档的原理,比如让大模型总结一本书,肯定是超
Token
上限了嘛,所以可以使用一系列查询来总结文档的每个部分。
提示词
prompt
ChatGPT
万字长文|40万人学习过|28个ChatGPT使用技巧,带你从入门到精通
梳理大纲再进行写作 在展开这个话题之前,我们需要回顾ChatGPT的两大特点:一是它是一个不断猜测下一个单词是什么的工具,所以ChatGPT不会对自己的内容有整体的规划性;二是ChatGPT的对话有上下文的
token
ChatGPT
使用技巧
教程
大模型
中国大模型「顶流群聊」笔记
甚至突然有一天会发现你原来练的那些模型基本都没啥用,当技术换代或者更强的开源模型出来,过去的投入可能完全「打水漂」,比如开源模型在预训练上看了一万亿的英文
Token
,你自己的模型非要再看一遍,可能毫无意义
大语言模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
面壁未来会在端侧有较多动作,团队已经在尝试用 iPhone 15 Pro 去跑 仅有1.2B参数的 MiniCPM-1.2B模型,一秒能吐 25 个
token
,即人的语速的15~25倍,未来在端侧就能完成的任务就能与云侧解耦
Grok-1
开源模型
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
这些潜码片段,相当于语言模型中的词汇
Token
,为 Sora 提供了构建视频的详细视觉“短语”。
Sora
微软
开源
最新最全的开源中文大语言模型列表
据悉,“书生·浦语”具有1040亿参数,基于“包含1.6万亿
token
的多语种高质量数据集”训练而成。
大模型
Prompt
Effective Prompt: 编写高质量Prompt的14个有效方法
造成这一现象的原因,一方面是因为大部分正式文本的开头和结尾都是比较重要的部分,因此模型会更关注开头结尾,另一方面是模型本身存在近期偏见(recency bias),生成时会关注离当前
token
更近的文本
prompt
提示词
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100