首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 高效选择:Ollama与LM Studio深度对比
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 【Agent专题】Agent架构设计:智能体架构设计的9大核心技术全景深解析,附架构图
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024年傅盛开年AI大课演讲内容PPT
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
核心是基于
transformer
架构,利用大量的无标注数据来训练模型对下一个token的预测,这也是整个大模型阶段最消耗时间和算力的地方。
大模型
Sora
中学生也能看懂的Sora视频生成原理解读
通过预先训练好的转换器(
Transformer
模型),Sora能够识别每个补丁的内容,并根据给定的文本提示进行相应的修改。
视频生成
sora
RAG
图解检索增强式生成(RAG)技术 | 万字长文
作者设计的一个方案,以及文中接下来的所有方案 基础 RAG 案例的过程大致如下:首先,将文本分割成不同的段落;接着,使用某种
Transformer
编码器模型将这些段落转换成向量;然后
检索增强式生成
RAG
RAG
高级 RAG 技术——图解概览
将文本切分成多个段落,使用
Transformer
Encoder 模型将这些段落转换成向量,然后把这些向量存入一个索引里。
RAG
检索
图解
阿里
本地运行140亿参数,阿里千问玩起来!Qwen+Win11+3060
Qwen-14B是基于
Transformer
的大语言模型, 在超大规模的预训练数据上进行训练得到。
大模型
CodeGeeX:Tab一下,代码自动生成
CodeGeeX含有40个
transformer
层,每层自注意力块的隐藏层维数为5120,前馈层维数为20480,总参数量为130亿。
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
最后采用架构上的调整,faster
transformer
要优于传统的
transformer
架构。
大模型
人工智能
大模型
国内AI大模型已近80个,哪个最有前途?
智谱早期是做知识图谱的,大模型浪潮到来之后及时转型到大模型,而且在知识图谱和大模型的结合方面采取了较为务实的路线,并未强行把知识图谱加到
Transformer
里面。
大模型
大语言模型应用中的文本分块策略
例如,sentence-
transformer
[1]模型在单个句子上效果很好,但像text-embedding-ada-002[2]这样的模型在包含 256 或 512 个token的块上表现更好
开源模型
Sora
通俗易懂地解释OpenAI Sora视频生成的特点有哪些?它与此前的Runway Gen2、Pika有什么区别?以及缺点是什么?
OpenAI Sora是一种结合了Diffusion模型和
Transformer
模型的技术。
sora
视频生成
Mixtral 7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
体验地址:https://anakin.ai/apps/nous-capybara-16451 RWKV v5 RWKV v5 3B 模型是一种免费的新型神经架构,旨在通过综合 RNN 和
Transformer
开源
大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
架构层面,Llama 3选择了经典的仅解码(decoder-only)式
Transformer
架构,采用包含128K token词汇表的分词器。
meta
llama3
数据库
主流向量数据库一览
简单下个定义,因为喂给
Transformer
的知识首先需要做embedding,所以用于存储embedding之后数据的数据库即可称为向量数据库。
向量数据库
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
在许多深度学习模型中,尤其是
Transformer
类模型,层与层之间的操作往往需要在vRAM中存储中间计算结果,这些结果可能包括激活值、权重等。
大模型
Yi技术报告细节分享
模型采用
Transformer
-Decoder结构,采用llama的代码实现,修改如下: o 注意力机制:Yi-6B和34B版本均采用Grouped-Query Attention
Yi模型
大模型
<
...
4
5
6
7
8
9
10
11
12
13
...
>
1
2
4
5
6
7
8
9
100