首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 99%的人都不懂的Stable Diffusion高级功能,Negative Prompt如何正确使用?
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 造梦师手记:华夏之美,SDXL时代的第一个国风模型和汉服LoRA
· Gpt写小说,常用的中文指令集「实操篇」
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如
BERT
、GPT来做NLP任务。
停用词
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
由16年论文 Gaussian Error Linear Units (GELUs) 提出,随后被GPT-2、
BERT
、RoBERTa、ALBERT 等NLP模型所采用。
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
几个改进点: 1、利用大模型的总结和推理能力来对长文档进行总结,因为本身长文档就是有很强的逻辑性的,普通的向量建模方式只能一定程度表征语义,如果用
bert
等传统的来说还有字数限制
大模型
RAG
一文看懂RAG:大语言模型落地应用的未来
它通常使用一个检索系统,比如基于
BERT
的模型,来在大规模的文档集合(例如维基百科)中寻找与输入相关的文段。
rag
检索增强
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
它使用预训练的
BERT
式模型将 token 数据库嵌入块中,然后在训练和推理期间对数据库中的最近邻执行分块交叉注意力。
Transformer
大模型
大模型实践总结
典型代表有:
Bert
、RoBERTa等。
大模型
训练
RAG
图解检索增强式生成(RAG)技术 | 万字长文
例如,标准的基于
BERT
的 Transformer 编码器模型(如 Sentence Transformers)最多处理 512 个 Token,而 OpenAI 的 ada-002 能够处理更长的序列
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
标准的 Transformer Encoder 模型(例如基于
BERT
的句子转换器)最多处理 512 个 Token,而像 OpenAI 的 ada-002 则能处理更长的序列,例如 8191
RAG
检索
图解
开源
开源大语言模型完整列表
文本类 GLM GLM 是以英文为核心的预训练语言模型系列,基于新的预训练范式实现单一模型在语言理解和生成任务方面取得了最佳结果,并且超过了在相同数据量进行训练的常见预训练模型(例如
BERT
,RoBERTa
开源模型
大语言模型
开源
最新最全的开源中文大语言模型列表
基于姜子牙Ziya-LLaMA-13B-v1训练而来),ChatLaw-33B(基于Anima-33B训练而来,逻辑推理能力大幅提升),ChatLaw-Text2Vec,使用93w条判决案例做成的数据集基于
BERT
大模型
大模型
万字长文,AI大模型的应用实践总结
典型代表有:
Bert
、RoBERTa等。
大模型
开源
国内外开源大语言模型一览表
现有的中文金融领域PLM都基于较为原始的
BERT
模型架构,参数量也相对较小,不能满足日益丰富的领域NLP需求。
大模型
万字长文-大语言模型指令调优综述
在监督设置下,InstructUIE的表现与
BERT
相当 (Devlin等人,2018年),并在零样本设置中优于最先进的GPT3.5。
大语言模型
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
这个领域的转变开始变得明显是在 Transformer 架构在自然语言处理领域取得成功之后,
BERT
和 GPT 的出现便是明证。
sora
论文
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
这个领域的转变开始变得明显是在 Transformer 架构在自然语言处理领域取得成功之后,
BERT
和 GPT 的出现便是明证。
Sora
微软
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100