首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
· 知识图谱 · 蜂鸟算法 · RankBrain算法 ·
BERT
模型(大模型) · chatgpt 0.2.1 知识图谱 Google的知识图谱于
开源模型
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
BERT
等预训练语言模型提供了语义匹配的能力。
大语言模型
RAG检索增强
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
你可以使用像GPT-3和
BERT
这样在大量数据上预训练过的LLMs,并根据你的用例进行定制。
大模型
微调
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
我们同时也在思考为什么 GPT-1、GPT-2 本来落后于
BERT
,但 GPT-3 会比它更好?
大模型
详解
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
去做召回,那很有可能召回的是比如这样的知识片段: ['
BERT
和GPT都是NLP领域的重要模型,但它们的设计和应用场景有很大的区别。'
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
2017年~ 2017年:Transformers 横空出世《Attention is All you Need》 2018年:Google
BERT
工作
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
实际上,这个团队多年来对于 AI 技术路线作出了很多次精准的预言式判断:从 2018 年投入
BERT
技术路线,2020 年率先拥抱大模型,2023 年初对 AI 智能体(Agent
MiniCPM
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
由16年论文 Gaussian Error Linear Units (GELUs) 提出,随后被GPT-2、
BERT
、RoBERTa、ALBERT 等NLP模型所采用。
大模型
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如
BERT
、GPT来做NLP任务。
停用词
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
随着预训练语言模型的出现,如GPT系列和
BERT
等,大模型在自然语言处理任务中取得了显著成果,推动了人工智能技术的进一步发展。
大模型
调研
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
几个改进点: 1、利用大模型的总结和推理能力来对长文档进行总结,因为本身长文档就是有很强的逻辑性的,普通的向量建模方式只能一定程度表征语义,如果用
bert
等传统的来说还有字数限制
大模型
RAG
一文看懂RAG:大语言模型落地应用的未来
它通常使用一个检索系统,比如基于
BERT
的模型,来在大规模的文档集合(例如维基百科)中寻找与输入相关的文段。
rag
检索增强
RAG
图解检索增强式生成(RAG)技术 | 万字长文
例如,标准的基于
BERT
的 Transformer 编码器模型(如 Sentence Transformers)最多处理 512 个 Token,而 OpenAI 的 ada-002 能够处理更长的序列
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
标准的 Transformer Encoder 模型(例如基于
BERT
的句子转换器)最多处理 512 个 Token,而像 OpenAI 的 ada-002 则能处理更长的序列,例如 8191
RAG
检索
图解
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
它使用预训练的
BERT
式模型将 token 数据库嵌入块中,然后在训练和推理期间对数据库中的最近邻执行分块交叉注意力。
Transformer
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100