首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 感受恐惧的力量:用 ChatGPT 分析288 篇 10w+ 公众号文章标题的情感分布
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· Suno音乐新手指南(手把手完整版教程)
· 剪映专业版智能补帧
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· PPT又又有新突破了!智谱AI代码流造PPT
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
OpenAI Assistants API 使用指南
] ) return thread 在 Thread 中没有限制 Message 的数量,但一旦超过
token
OpenAI
Assistants
API
大模型
真格基金大模型能力测试问题集---基础篇
amp; returns the stripe module; usable as stripe.Charge.create etc"""import util"""Create a Stripe
token
大模型
训练
中文
提示词
精通结构化提示词:如何精确操控指令的作用域与优先级
多个规则导致模型需要多次交互澄清,浪费
Token
和次数。
提示词
结构化
OpenAI
向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
再有,用户现在可以通过 API 向 OpenAI 发送其他文件,而且所能接收的上下文最多可达 128K
token
,相当于约 300 页的文本内容。
检索增强生成
大语音模型
使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
在 Dify 模型配置中设置模型的 API
Token
在列表中往下拉,找到“月之暗面”,然后把我们的模型 API
Token
配置到 Dify 中。
Dify
Moonshot
API
工作流
大模型
大模型的研究新方向:混合专家模型(MoE)
一般是通过softmax门控函数通过专家或
token
对概率分布进行建模,并选择前K个。
MoE
大模型
大模型
使用知识图谱提高RAG的能力,减少大模型幻觉
llm = HuggingFaceInferenceAPI( model_name="HuggingFaceH4/zephyr-7b-beta",
token
RAG
大语言模型
开源
开源大语言模型完整列表
Qwen-7B 系列模型的特点包括: 1.大规模高质量预训练数据:使用了超过 2.2 万亿
token
的自建大规模预训练数据集进行语言模型的预训练。
开源模型
大语言模型
开源
国内外开源大语言模型一览表
PromptCLUE-large在1000亿
token
中文语料上预训练,累计学习1.5万亿中文
token
,并且在数百种任务上进行Prompt任务式训练。
大模型
Transformer
图解 transformer——逐层介绍
在解码器中,目标序列右移一个位置,然后在第一个位置插入一个Start
token
后被送入解码器的嵌入层。
Transformer
大模型
图解
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
ensp; ChatGLM3-TPU: 采用TPU加速推理方案,在算能端侧芯片BM1684X(16T@FP16,内存16G)上实时运行约7.5
token
ChatGLM3
语音模型
开源模型
大模型
大模型推理能力增强方法总结
CoT 就是把一个多步骤推理问题,分解成很多个中间步骤,分配给更多的计算量,生成更多的
token
,再进行求解。
推理能力
大模型
Transformer
图解 Transformer——功能概览
在第二个时间步,解码器输入序列包含句首符号产生的
token
和第一个时间步产生的目标单词。
Transformer
大模型
图解
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
同时读取这些网页,并将其文本内容转换成最大长度为300个
token
的文本块。
大模型
RAG检索增强
ChatGPT
爆肝两天!ChatGPT+提示词解决知识库目录混乱
不要顾虑
token
限制而生成简略的回答,内容太长你可以让用户回答”继续“来生成完整内容 ## Output Format 使用 Markdown 代码块的格式进行输出,使用 # 代表一级目录
智能分类
大模型
知识库
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100