首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Suno音乐新手指南(手把手完整版教程)
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 全球六大主流自动PPT制作工具
· ComfyUI 基础教程(一)环境部署和插件安装
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· 搞了一个Dify开源知识库
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
使用BELLE项目部署bloomz模型(专业程序员精简版)
中文对话
大
模型ELLE(BE Large Language Model Engine),基于BLOOM和LLAMA针对中文做了优化,模型调优仅使用由ChatGPT生成的数据,为中文指令提供更好的支持。
belle
训练
大模型
Meta
如何微调Meta Llama-3 8B
Meta 推出了 Meta Llama 3 系列 LLM,包括 8 和 70B
大
小的预训练和指令调整的生成文本模型。
Meta
Llama
3
大模型
ChatGPT
使用ChatGPT润色出高品质文章的提示词
8、 更改字母
大
小写规范 输入 “调整字母
大
小写规范”,可以对文章中不规范或不一致的
大
小写进行检测,并提供相应的调整建议。
写作
大模型
ChatGPT
工具
使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
RAG(Retrieval Augmented Generation)是一种检索增强生成技术,它利用
大
型语言模型来处理用户查询,RAG 技术的主要组成包括数据提取—embedding—创建索引—检索—
RAG
大语言模型
RAG
RAG与Long-Context之争—没必要争
本质区别在于外部知识如何给到
大
模型,以及给多少到
大
模型。
RAG
Long-Context
大模型
Transformer
图解 Transformer——功能概览
一、引言 随着
大
型语言模型如 ChatGPT 的横空出世,我们进入了自然语言处理(NLP)的一个新纪元。
Transformer
大模型
图解
ChatGPT
分析了数百万ChatGPT用户会话后发现的秘密
但并不表明生成式人工智能的兴趣或使用实际上正在下降: 理论 A)专业/常规使用仍处于历史最高水平或不断增长;只有新用户/那些没有特定任务的检查者正在下降 理论B)
大
量使用与功课有关
大语言模型
RAG
LlamaIndex的QueryPipeline在实现RAG应用后,Agent应用也可以实现了(附开发示例)
Agent应用可以通过QueryPipeline的方式实现吗?如果可以,它将能统一整个应用的构建模式,对于开发者来讲,会带来一致的开发体验。这个答案是肯定的,最近官方放出了一个通过QueryPipeline构建ReAct Agent示例。实际上,实现思路很直接,就是定义了AgentWorker(类似于langchain的AgentExecutor的实现,支持ReAct模式的循环)在其上实现了一些Agent特有的组件,进而基于此实现了AgentPipeline,但langchain现在已经发现了这样设计在生产条件下的限制,推出了langgraph。
Agent
QueryPipeline
大模型
RAG
12个RAG常见痛点及解决方案
当实际答案不在知识库中时,RAG系统提供一个看似合理但不正确的答案,这会导致用户得到误导性信息 解决方案: 在由于知识库中缺乏信息,系统可能会提供一个看似合理但不正确的答案的情况下,更好的提示可以提供很
大
的帮助
RAG
大模型
GPTs
小心你的GPTs 防守篇 - 自带六神装的高防GPTs
距离我们 GPTs 攻防的上篇发布到现在已经过去了两周,也有很多的群友积极参与了我们的攻防活动,但是截止目前还没有人破解到我们的 prompt,不少群友想要我们分享一下防守的经验,这一篇我们就来为
大
家带来
GPTs
大模型
微调
LLM微调经验&认知
数据质量可能更重要,太
大
的数据量有可能“阉割”掉模型原有的base能力 8.
LLM
大模型
Prompt
Prompt:我常用的对话技巧
这里正好给
大
家介绍一下我平时使用
大
模型的小技巧,相信有人在很多地方已经用过了。
prompt
大模型
RAG
如何提高RAG 的效果
同理,检索到的信息中如果存在冲突,或者冗余的内容时会极
大
的影响LM 的生成效果。
RAG
大模型
混合专家模型 (MoE) 详解
例如,在混合专家模型 (MoE) 中,尽管较
大
的批量
大
小通常有利于提高性能,但当数据通过激活的专家时,实际的批量
大
小可能会减少。
MoE大模型
RAG
无限长的上下文,也干不掉的RAG
之前有一个论调,说如果
大
模型支持足够长的上下文内容时候,是否就不在需要向量库。
RAG
大模型
<
...
55
56
57
58
59
60
61
62
63
64
...
>
1
2
4
5
6
7
8
9
100