首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· 零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
· 拒绝996,想出海赚美元?这7个GPT方案绝对靠谱!
· 大模型微调数据选择和构造技巧
· 深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
· 阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
· Prompt屠龙术-大厂prompt工程指南解析提炼
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
微软打破
Decoder
-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
微软&清华最新研究,打破GPT系列开创的
Decoder
-Only架构—— 提出
Decoder
-
Decoder
新型架构,名为YOCO(You Only Cache Once)。
Decoder-Decoder
YOCO
架构
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
/question/627258986/answer/3260798103 LLM现在一般都是基于Transormer结构,参数总和可以看作Embedding部分参数和Transormer-
Decoder
大模型
Transformer
图解 transformer——逐层介绍
五、
Decoder
解码器的结构与编码器的结构非常类似,但有一些区别。
Transformer
大模型
图解
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
相比于采用causal
decoder
-only结构的大语言模型,采用prefix
decoder
-only结构的ChatGLM-6B存在一个劣势:训练效率低。
大模型
Transformer
图解 Transformer——功能概览
(原文为 Encoder stack 和
Decoder
stack)。
Transformer
大模型
图解
开源
【开源项目】Flow Matching 语音合成
We propose an improved encoder-
decoder
TTS architecture that uses a combination of 1D CNNs and Transformers
音视频
Flow
Matching
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
先说下大模型的理论:大模型的底座模型就是多层的transformer,由于是因果语言建模,它只用了transformer的
decoder
模块。
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
大模型LLM架构方向Encoder &
Decoder
目前,许多大型语言模型(LLM)采用了
Decoder
-only的架构。
大模型
大模型
大模型实践总结
而基于Transformer结构的模型又可以分为Encoder-only、
Decoder
-only、Encoder-
Decoder
这三类。
大模型
训练
大模型
预训练对话大模型深度解读
论文地址:ai.googleblog.com/2020/01/tow… 3.3 CDial-GPT 由清华CoAI小组研发,基于
Decoder
-Only架构,参数量104M,预训练数据包含了大规模高质量中文开放域对话数据集
Sora
OpenAI视频模型Sora的推理生成成本多高?
(Video Encoder/
Decoder
的计算量相比 DiT 可以忽略不计) Sora 的模型多大呢?
Sora
推理
算力
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
模型结构上,与GPT相同,LLaMA采用了causal
decoder
-only的transformer模型结构。
大模型
微调
训练
Stable Diffusion
SD入门教程一:Stable Diffusion 基础(技术篇)
最后,这个中间产物会被Image
Decoder
(图片解码器)解码成一张真正的图片。
Stable
Diffusion
文生图
Stable Diffusion
硬核解读Stable Diffusion(系列一)
Latent Diffusion是基于latent的生成模型,它先采用一个autoencoder将图像压缩到latent空间,然后用扩散模型来生成图像的latents,最后送入autoencoder的
decoder
StableDiffusion
文生图
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
这里的prior模型是一个基于transformer
decoder
架构的扩散模型(下图中第一列),其采用CLIP text encoder来编码文本。
Kandinsky-3
文生图
开源模型
<
1
2
3
4
>
1
2
4
5
6
7
8
9
100