首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 盘点字节跳动最新的AI应用
· 制作可爱的表情包
· SD-WebUI和ComfyUI的局域网访问设置
· 复旦开源中文医疗大模型,基于百川微调,模型和数据集都公开
· 万字长文|40万人学习过|28个ChatGPT使用技巧,带你从入门到精通
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· GPU 性能(数据表)快速参考
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
of various parameter-efficient tuning methods and the proposed variants注意:self-attention的模型参数是对q, k,
v
进行线性变换的映射矩阵
训练
微调
RAG
检索增强生成(RAG)有什么好的优化方案?
· 选项2:首先应用多模态大模型(GPT4-
V
、LLaVA、FUYU-8b)生成图片summary。
RAG
检索增强
RAG
检索增强生成(RAG)有什么好的优化方案
· 选项2:首先应用多模态大模型(GPT4-
V
、LLaVA、FUYU-8b)生成图片summary。
RAG
检索增强生成
Ollama 与 Dify:AI 应用开发的强强联合
ensp; docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -
v
Ollama
Dify
大型语言模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
FF 层的公式可以表示为: $FF(x)=f(x⋅KT)⋅
V
$ 其中K,
V
∈Rdm×d是可训练的参数矩阵,f是非线性激活函数,如 ReLU。
大模型
微调
大模型
全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
两个月前,阿里巴巴通义实验室公开了一篇能够让照片唱歌说话的生成式AI模型论文,EMO(Emote Portrait Alive),在海外媒体和社交平台引起热烈反响,被一批科技圈大
V
轮番转发。
EMO
阿里
全民演唱
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
安装完在cmd中运行”gcc -
v
”测试是否成功即可。
提示词
prompt
chatgpt
Stable Diffusion
全网最全AI绘画Stable Diffusion关键技术解析
文本表征通过交叉注意力计算 K、
V
向量,与自注意力模块的 Q 向量结合,实现文本信息的注入。
Stable
Diffusion
文生图
Prompt
掌握Prompt的6心法
出自:https://mp.weixin.qq.com/s/
V
-S8QQpPfwB56bEIL73wcg
prompt
写作
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
v
=sal78ACtGTc&t=58s,下面带中文翻译字幕的视频来自Twitter用户@宝玉。
GPT-5
智能体
Stable Diffusion
万字长篇!超全Stable Diffusion AI绘画参数及原理详解
v
=kuhO9zAzetk;数据链接:https://docs.google.com/spreadsheets/d/1YkX1pzJvYKrj_w6fhrpyaTyZvR687THp7QkxOVI4qEg
文生图
Agent
AI领域的agent是什么意思?
n c y}\cdot r e c e n c y + \alpha_{i m p o r t a n c e}\cdot i m p o r t a n c e+\alpha_{r e l e
v
大模型
大模型
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
www.docker.com/products/docker-desktop/ 在下载Docker后,在本地电脑上完成安装,注意在安装过程中,我们需要确保"Use WSL 2 instead of Hyper-
V
知识库MaxKB
开源
汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
例如Transformer架构的模型,要储存输入序列每一个对象的K、
V
、Q值,这意味着当序列长度非常大时,注意力矩阵的计算和储存会消耗大量的计算资源;但是如果用LSTM,则并行计算的程度很低,处理超长序列的时间会被狠狠拉长
上下文工程
AI
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
多头注意力机制则是通过将输入同时进行多个线性变换,每个变换都有自己的Q、K、
V
矩阵,并分别计算自己的注意力得分,最后综合所有变换的输出得到最终的输出
Transformer
大模型
<
1
2
3
4
5
6
7
8
>
1
2
4
5
6
7
8
9
100