首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
Dify:大模型创业开源工具,46,558 行代码,完全开源
Dify 是一个开源的
LLM
应用开发平台。
Dify
开源工具
开源
RAGFlow:开源的
RAG
引擎,专注于深入的文档理解,支持处理各种复杂格式的非结构化数据
项目简介 RAGFlow是一个开源的
RAG
引擎,专注于深入的文档理解。
RAGFlow
RAG
开源
RAG
12个
RAG
常见痛点及解决方案
并且将深入研究这些
RAG
痛点的解决方案,这样我们能够更好地在日常的
RAG
开发中避免和解决这些痛点。
RAG
大模型
微调
LLM
微调神器Lamini,疯狂获星1.9k,免费可用!!
LLM
(大规模语言模型)的微调不再困难!!
大模型
大模型
AI+智能客服:大模型可落地的最成熟场景
之
一
因此我估计这个主题可能会比
之
前的主题引起更大的争议,但是如果从产品形态而言,我认为智能客服就是
LLM
可用于生产的最成熟情景
之
一。
ai
客服
OpenAI
OpenAI 无需向量化的
RAG
新架构设计范式剖析
—1— OpenAI
RAG
架构设计新范式剖析 1、无向量化
RAG
架构设计新理念
RAG
技术的核心目标是解决大语言模型(
LLM
)在处理特定领域知识时的局限性,比如“失忆”问题或者长文本处理的高昂成本
OpenAI
RAG
架构
LLM
谈谈
LLM
在推荐域的渗透,探索推荐新范式
微软用ChatGPT把New-Bing进行了升级
之
后,给了业界很大的震撼,搜索的范式发生了变化,基于大模型的生成式搜索随
之
引入眼帘。
大模型
RAG
检索增强生成(
RAG
)有什么好的优化方案?
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强
RAG
检索增强生成(
RAG
)有什么好的优化方案
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强生成
阿里
阿里
RAG
新框架R4:增强检索器-重排序-响应器,5个知识密集任务上都超过Self-
RAG
等!
尽管检索增强的LLMs通过检索外部数据来减少这种幻觉,但现有的方法通常不考虑检索文档与LLMs
之
间的细粒度结构语义交互,这在处理长文档时尤其影响回答的准确性。
RAG
检索
大型语言模型
RAG
RAG
模型的主要痛点和解决方案
- 设计一个验证头网络,以在生成
之
前明确验证声明。
rag
大模型
大模型
大模型检索增强生成
RAG
的优化
这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当
LLM
context window较小时不友好)。
RAG
检索增强
大模型
大模型
对于大模型
RAG
技术的一些思考
但是,当公司内部真实文档导入
之
后,效果急转直下。
RAG
大模型
RAG
无限长的上下文,也干不掉的
RAG
之
前有一个论调,说如果大模型支持足够长的上下文内容时候,是否就不在需要向量库。
RAG
大模型
LLM
现在
LLM
的大小为什都设计成6/7B、13B和130B几个档次?
链接:https://www.zhihu.com/question/627258986/answer/3260798103
LLM
现在一般都是基于Transormer结构,参数总和可以看作
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100