首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 高效选择:Ollama与LM Studio深度对比
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 【Agent专题】Agent架构设计:智能体架构设计的9大核心技术全景深解析,附架构图
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024年傅盛开年AI大课演讲内容PPT
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
构建开源多模态RAG系统
像 Image2Text:这部分重点在于使用基于
transformer
的架构来改进复杂图像的字幕生成。
RAG
大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型由多层双向的
Transformer
编码器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。
大模型
LLM
2023年LLM如何入门?请看这篇综述!
A:确实,那近几年的话,研究人员提出了预训练语言模型PLM,通过对大规模语料库进行
Transformer
模型的预训练,展现了解决各种NLP任务的强大能力。
大模型
大模型
详解大模型RLHF过程(配代码解读)
模型并没有在每个action之后得到新的state(感谢评论区大佬的点拨,对于answer的第二个词,可以把prompt+answer的一个词当作新的state,而不只是把prompt当作state,状态转移蕴含在
transformer
训练
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
6、对输入保密代码保持警惕 鉴于 ChatGPT 使用的是 Large Language Model (LLM),即 Generative Pretrained
Transformer
,其中“生成”是指模型生成新内容的能力
编程
提示词
chatgpt
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
提高
Transformer
的长度限制、通过总结记忆来提高效率、使用向量或数据结构来压缩记忆。
大模型
大模型
国产编程大模型CodeGeex
CodeGeeX含有40个
transformer
层,每层自注意力块的隐藏层维数为5120,前馈层维数为20480,总参数量为130亿。
编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
Llama 2-Chat-70B:Llama 2系列模型是一组GPT-like (也被称作自回归
Transformer
开源模型
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
在模型训练上,为了保证稳定性,团队又使用了Embedding LayerNorm算法,在嵌入层添加额外的RMSNorm层,并在每个
Transformer
子层前加入RMSNorm层。
开源大模型
电信
大模型
llm-action:让天下没有难学的大模型
配套代码 HuggingFace PEFT LLM分布式训练并行技术 近年来,随着
Transformer
大模型
LLM
汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
例如
Transformer
架构的模型,要储存输入序列每一个对象的K、V、Q值,这意味着当序列长度非常大时,注意力矩阵的计算和储存会消耗大量的计算资源;但是如果用LSTM,则并行计算的程度很低,处理超长序列的时间会被狠狠拉长
上下文工程
AI
LLM
Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
vLLM 的核心在于通过创新的内存管理和调度算法,有效解决了传统
Transformer
模型推理中的性能瓶颈。
LLM
服务框架
开源
爆火!腾讯开源PhotoMaker:高效地定制化生成任意风格的逼真人类照片!
由于用于训练原始CLIP图像编码器的数据主要由自然图像组成,为了更好地使模型从掩码图像中提取id相关的嵌入,在训练PhotoMaker时对图像编码器中的部分
transformer
层进行了微调。
PhotoMaker
文生图
AI+音乐|对话 Suno CEO:破圈的音乐生成产品是如何诞生的?
我们一开始就决定要走 foundation model 的路线,因为从长远来看,这是最有前途的方向,虽然当时业界几乎没有用
transformer
做音频的先例。
suno
音乐
大语言模型的拐杖——RLHF基于人类反馈的强化学习
此外,该库易于定制,允许基于任何任意用户指定的奖励函数来训练任何编码器-解码器或基于encoder
transformer
的LM。
大模型
训练
<
...
5
6
7
8
9
10
11
12
13
14
>
1
2
4
5
6
7
8
9
100