首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI虚拟主播数字人技术实现Wav2Lip
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· Suno音乐新手指南(手把手完整版教程)
· SD3 正式开源 Sora同源架构
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 我尝试了 100 个免费 AI 工具,这些是最好的
· 深入探讨:Agent全自动写作长篇小说技术原理解析
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
当时的情况是 BERT 刚刚出来,
Transformer
的魔法还没有蔓延到 CV 领域,所以这哥们提的问题相当于需要单独拎出来几个模型,分别把图像识别、意图识别、用于模拟用户行为的代码生成等等单独做一遍
大模型
大模型
总结!大模型微调(Tuning)的常见方法
Full-finetuning 更新所有参数的方式不同,该方法是在输入 token 之前构造一段任务相关的 virtual tokens 作为 Prefix,然后训练的时候只更新 Prefix 部分的参数,而
Transformer
微调
大模型
提示词
震撼!AI语言模型突破瓶颈,26个提示词原则引领GPT-4响应质量飙升57.7%!你的模型还在等什么?
而GPT-1,作为先驱者,用
Transformer
架构和无监督学习打开了新世界的大门。
语言模型
提示词
GPT-4
Agent
AI进化的新纪元:AI AIgents时代(1/9)——什么是Agent?
GPT = generative pre-trained
transformer
,也就是生成式预训练转换器,这是驱动大型语言模型(LLM)如 ChatGPT 的核心机器学习模型架构。
大模型
Fastwhisper + Pyannote 实现 ASR + 说话者识别
whisper多一点 一、faster-whisper简单介绍 faster-whisper是使用CTranslate2对OpenAI的Whisper模型的重新实现,CTranslate2是一个用于
Transformer
faster-whisper
语者识别
ASR
ChatGPT
公司如何使用ChatGPT进行内容营销?
要掌握ChatGPT的功能,必须深入研究驱动其内容生成能力的架构框架和算法: 转化器架构和算法:ChatGPT的基础是
Transformer
架构,它采用了自我关注机制来处理和生成文本。
大模型
开源
[中文开源震撼首发]33B QLoRA大语言模型Anima真的太强大了!QLoRA技术可能是AI转折点!
基于
Transformer
的语言模型训练成本之所以昂贵,主要是因为最优化的后向梯度下降过程中的内存需要是模型参数量的最多16倍以上!
开源模型
大模型
AI大模型LLM可以帮助企业做什么?
2020 年,OpenAI 在Google 研究团队提出的技术架构
Transformer
和多头注意力机制的基础上,推出了 GPT-3 模型,其在文本生成任务上的能力令人印象深刻
大模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
GPT-3 (Generative Pre-trained
Transformer
3) is a state-of-the-art
Prompt
大语言模型
RAG
大模型
一个产品经理的大模型观察、反思与预测
Representations from Transformers / 双向编码器表征模型) 2018年:OpenAI GPT(Generative Pre-trained
Transformer
工作
RAG
RAG与Long-Context之争—没必要争
RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方法,可以理解计算量较小,也就是文本之间交互较少;而Long-Context相当于用户Query与文本交互时,利用了整个大模型参数,即通过
Transformer
RAG
Long-Context
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
在下面的章节中,将详细介绍对 vanilla
Transformer
架构和训练方法所做的详细修改。
大模型
OpenAI
【语音识别】OpenAI语音力作Whisper
三、模型 模型结构是encoder-decoder
transformer
,中间attention模块前后有残差链接,encoder用的是self attention,decoder用的是
语音转文字
whisper
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
官方介绍: Qwen-7B是基于
Transformer
的大语言模型, 在超大规模的预训练数据上进行训练得到。
通义千问
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
这里的prior模型是一个基于
transformer
decoder架构的扩散模型(下图中第一列),其采用CLIP text encoder来编码文本。
Kandinsky-3
文生图
开源模型
<
...
5
6
7
8
9
10
11
12
13
14
>
1
2
4
5
6
7
8
9
100