首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 盘点字节跳动最新的AI应用
· 小学生都能看懂的 Prompt 高级技巧: Few-Shots 、 COT 、 SC、 TOT 、 Step-Back
· 智能知识图谱SmartKG和pySmartKG简介
· [Stable Diffusion]SD安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件
· Stable Diffusion高级教程 - 图生图(img2img)模式
· 解读 | SuperCLUE 2023年9月全面测评大模型四大能力
· 实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
· Agent四大范式 | 综述:全面理解Agent工作原理
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
在 Dify 模型配置中设置模型的 API
Token
在列表中往下拉,找到“月之暗面”,然后把我们的模型 API
Token
配置到 Dify 中。
Dify
Moonshot
API
工作流
大模型
大模型的研究新方向:混合专家模型(MoE)
一般是通过softmax门控函数通过专家或
token
对概率分布进行建模,并选择前K个。
MoE
大模型
大模型
使用知识图谱提高RAG的能力,减少大模型幻觉
llm = HuggingFaceInferenceAPI( model_name="HuggingFaceH4/zephyr-7b-beta",
token
RAG
大语言模型
开源
开源大语言模型完整列表
Qwen-7B 系列模型的特点包括: 1.大规模高质量预训练数据:使用了超过 2.2 万亿
token
的自建大规模预训练数据集进行语言模型的预训练。
开源模型
大语言模型
开源
国内外开源大语言模型一览表
PromptCLUE-large在1000亿
token
中文语料上预训练,累计学习1.5万亿中文
token
,并且在数百种任务上进行Prompt任务式训练。
大模型
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
ensp; ChatGLM3-TPU: 采用TPU加速推理方案,在算能端侧芯片BM1684X(16T@FP16,内存16G)上实时运行约7.5
token
ChatGLM3
语音模型
开源模型
大模型
大模型推理能力增强方法总结
CoT 就是把一个多步骤推理问题,分解成很多个中间步骤,分配给更多的计算量,生成更多的
token
,再进行求解。
推理能力
大模型
Transformer
图解 Transformer——功能概览
在第二个时间步,解码器输入序列包含句首符号产生的
token
和第一个时间步产生的目标单词。
Transformer
大模型
图解
Transformer
图解 transformer——逐层介绍
在解码器中,目标序列右移一个位置,然后在第一个位置插入一个Start
token
后被送入解码器的嵌入层。
Transformer
大模型
图解
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
同时读取这些网页,并将其文本内容转换成最大长度为300个
token
的文本块。
大模型
RAG检索增强
ChatGPT
爆肝两天!ChatGPT+提示词解决知识库目录混乱
不要顾虑
token
限制而生成简略的回答,内容太长你可以让用户回答”继续“来生成完整内容 ## Output Format 使用 Markdown 代码块的格式进行输出,使用 # 代表一级目录
智能分类
大模型
知识库
Stable Diffusion
硬核解读Stable Diffusion(系列三)
但其实除了这两种,还有很多其它的研究工作,比如Adobe提出的Custom Diffusion,相比DreamBooth,它只finetune了UNet的attention模块的KV权重矩阵,同时优化一个新概念的
token
Stable
Diffusion
文生图
被高估的Pika,被低估的多模态AI
长期关注 AI 领域投资的心资本合伙人吴炳见认为,大语言模型只是 AI 版图的一部分,基础模型的第一性原理是“predict next
token
大模型
多模态
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
如前所述,选择时应考虑内容的性质(例如短文本还是长文档)、将要使用的Embedding模型及其功能(如
token
限制)。
RAG
大模型
OpenAI
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
今年2月登场的世界最快大模型Groq,每秒500
token
直接破了纪录,自研的LPU在LLM任务上比英伟达GPU性能快了10倍。
Scaling
Law
AI大模型
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100