首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI Agent的数字化革命:超越文本,走向自主决策与交互
· 推荐一个自动生成复杂提示词的模版:思考链(CoT)如何通过分步推理提升AI任务准确性 | 示例详解
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 用so-vits-svc-4.1进行音色转换的极简教程!
· ChatGLM3在线搜索功能升级
· 巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
· 50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
垂直领域大模型的思考
继续预
训
练
重要的一步 通过继续预
训
练
能给通用的大模型注入领域知识,领域内的专业词能更充分的学习。
垂直领域
大模型
RAG
图片拖拽神器DragGAN介绍及官方安装文档说明
拖放图像编辑是一项功能强大的技术,它涉及
训
练
生成模型来根据用户提供的指令转换图像。
开源
微调
Qwen7b微调保姆级教程
我们构造了一个修改大模型自我认知的3轮对话的玩具数据集,使用QLoRA算法,只需要5分钟的
训
练
时间,就可以完成微调,并成功修改了LLM模型的自我认知(以Qwen7b-Chat为例)。
Qwen7b
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在目标数据集上
训
练
目标模型时,将从头
训
练
到输出层,其余层的参数都基于源模型的参数微调得到。
大模型
微调
4秒惊艳!Stable Cascade AI绘画神器,设计师和普通用户的无限创意新选择
任何人都可以在Stability的GitHub页面上找到用于微调、ControlNet和LoRA
训
练
的脚本,进一步挖掘这个全新架构的潜力。
文生图
绘画
ChatGPT
如何使用ChatGPT进行写作
同所有工具一样,ChatGPT 需要明确的指导,通过与 ChatGPT 的对话,不断
训
练
ChatGPT,便能使ChatGPT了解你的风格。
ChatGPT
写作
大模型
大模型的研究新方向:混合专家模型(MoE)
为了实现大模型的高效
训
练
和推理,有的是从模型底层下手,比如直接改变底层模型架构,将原来的Transformer架构改成近期新出的基于状态空间模型(SSM)的mamba架构;有的是在预
训
练
微调方法上下手,
MoE
大模型
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
此外,由于反馈序列中有许多常用词,为了避免模型在
训
练
过程中依赖于这些词,CoH 在
训
练
期间随机屏蔽了 0%-5% 的历史 token。
agent
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
这表明,通过AlpacaEval的评估,使⽤NEFT进⾏
训
练
显著提⾼了对话能⼒和回答质量。
NEFTune
大语言模型
Prompt
图像作为prompt#IP-Adapter
IP-Adapter是图像提示适配器,用于预
训
练
的文本到图像扩散模型,以实现使用图像提示生成图像的能力。
prompt
IP-Adapter
文生图
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预
训
练
阶段、微调阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预
训
练
大语言模型?
大模型
大模型
万字长文,AI大模型的应用实践总结
具体的模型
训
练
(预
训
练
)方法可参考Hugingface Transformers的样例,SFT(指令精调)方法可参考Alpaca的
训
练
代码。
大模型
LLM
更强的小型LLM:Zephyr-7B
该模型由 Hugging Face 创建,实际上是在公共数据集上
训
练
的 Mistral-7B 的微调版本,但也通过知识蒸馏技术进行了优化。
Zephyr-7B
大语言模型
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
这篇文章我们简单介绍一下Kandinsky-3的模型结构、
训
练
策略以及模型生成效果。
Kandinsky-3
文生图
开源模型
GGUF格式详解
在大模型领域,GGUF是一个非常常见的词语,也是非常常见的大模型预
训
练
结果命名方式。
GGUF
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100