首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· MCP服务介绍及应用场景报告-来自Manus
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· 大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· Suno歌曲制作
· SD入门教程二:文生图基础用法(提示词)
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Transformer
图解 Transformer——功能概览
其问世标志着从序列建模的传统方法(如长短期记忆
网
络和门控循环单元)转变到一个更加高效、更能捕捉复杂语言模式的新框架,它允许模型同时处理输入序列的所有元素,并捕捉它们之间的复杂关系。
Transformer
大模型
图解
换脸
StableDiffusion使用Roop插件一键换脸教程
3.进入到WebUI的插件界面安装Roop 点击WebUI的扩展标签——选择从
网
址安装(Install From URL)——将Roop的地址粘贴到仓库
网
址的位置——点击安装。
AI换脸
教程
SD入门教程六:ControlNet基础入门
扩展页签下找到“从
网
址安装”,; 3.
ControlNet
文生图
教程
GPTs使用指南 | 保姆级GPTs入门教程,0代码基础也能做AI产品
学习教程前,你需要满足一些条件,包括: 1.Chat GPT官
网
注册↓ http://Chat.openai.com 2.账号需要开通ChatGPT Plus服务
GPTs
入门教程
一张照片秒生不同风格图像!小红书InstantID来了!
如果你没有准备好照片,那么可以用
网
页自带的照片和参数,一键体验。
InstantID
文生图
Github
8月份最火的 5 个 GitHub 项目
预训练数据类型多样,覆盖广泛,包括大量
网
络文本、专业书籍、代码等。
下载
工具
全球六大主流自动PPT制作工具
2、Gamma (地址:https://gamma.app/create) 这是一个免费且无需魔法即可使用的AI自动生成PPT
网
站,我们在使用时只需输入一句话就可以将PPT完整的生成,而且即使生成后也可以根据个人选择来调整
自动PPT
工具
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
适应性层 P-tuning v2引入了适应性层,这是一种特殊的神经
网
络层,用于根据不同语言和任务的需要自适应模型的表示。
大模型
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
其一是没有标注信息的弱监督数据,来自于从
网
上挖掘得到的各种有语义关联的数据,并过滤掉其中低质量的内容。
BGE
M3-Embedding
多语音检索
第一性原理以及第一性原理是怎么帮马斯克成为首富的
有一天,马斯克静静地站在这些笨重的机器人面前看了几分钟,随后试着自己动手完成这项任务——这对人来说很容
易
。
马斯克
商业
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
传统的微调将数据嵌入到模型架构中,实质上是“硬编码”知识,这不容
易
修改。
大模型
微调
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
一、了解大模型参数 1.1 模型参数单位 "10b"、"13b"、"70b"等术语通常指的是大型神经
网
络模型的参数数量。
开源模型
大模型
大模型:泛化即智能,压缩即一切
监督学习是优秀的数据海绵 经过监督学习训练的深度神经
网
络是优秀的数据海绵——它们可以记住大量数据,并且可以通过数万批量大小的训练来快速完成这一任务。
大模型
泛化
SDXL
SDXL模型lora训练参数详细设置,显存占用22G,不用修脸原图直出
其他的,可以把
网
络维度改成64,再高就不需要了。
SDXL
训练
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
它被认为是Prompt tuning类方法中效果最优且
易
用性最好的版本。
ChatGLM2-6B
<
...
55
56
57
58
59
60
61
62
63
64
...
>
1
2
4
5
6
7
8
9
100