首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· ChatGLM智谱清言
· 硬核解读Stable Diffusion(系列二)
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· SD入门教程二:文生图基础用法(提示词)
· AI声音克隆 | 最全最简教程(权威版)
· GLM4 开源了!!!还有多模态
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
链接大模型与外部知识,智源开源最强语义向量模型BGE
blog/introducing-text-and-code-embeddings , https://openai.com/blog/new-and-improved-embedding-model [
5
]
embedding
语义向量
Stable Diffusion
stable diffusion最全18种controlnet模型,详细教程讲解。
潜空间分块高度不能超过160, 4,线稿上色linert,这个和canny差不多,但目前看效果还不错
5
,
Stable
Diffusion
文生图
controlnet
如何改善你的回测方法,提高策略的未来收益
5
.
回测方法
TypeChat 入门指南
5
.
TypeChat
ChatGPT
用ChatGPT写论文prompt大全
请给出文献的标题作者,年份,摘要和关键词
5
、文献综述指令你好,chatGPT。
prompt
工具
【AI绘图工具】太爆炸了,AI出图速度100fps(每秒100张图片),比LCM、SDXL Turbo更快,目前No.1
5
、预测-校正方法:这是一种通过预测中间步骤并进行校正来提高扩散模型效率的方法。
StreamDiffusion
文生图
再也不怕合照缺人,Anydoor为图片编辑开了一道「任意门」
图
5
展示了与基于参考的图像生成方法的对比结果。
Anydoor
文生图
数字人
最强开源数字人对口型系统介绍
而增强模型虽然质量有所改善,但是 推理速度还是比较慢,经过测试大概在1:
5
左右。
数字人
开源模型
Agent
Agent四大范式 | 综述:全面理解Agent工作原理
o o • LEMA 则先收集错误的规划样本,随后利用更高级的
GPT
-4进行修正,这些经过修正的样本用于微调LLM-Agent,显著提高了
Agent
大语言模型
商汤
冲击传统模特,商汤发布高质量虚拟试衣Diffusion模型
变形网络使用Adam优化器进行100个epoch的训练,学习率为
5
×10−5。
文生图
Stable Diffusion
[Stable Diffusion]AnimateDiff :最稳定的文本生成视频插件
; · · · 反向提示词:bad-artist,bad-artist-anime,bad-hands-
5
,
AnimateDiff
视频
训练
SD艺术二维码还有人不会做?
目录 1.认识二维码 2.转化二维码 3.生成二维码(懒人版/SD版本) 4.美化二维码
5
.相关模型资料下载(底模/cn模型) 认识二维码 为啥叫二维
文生图
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
答:差评 [Round 3] 问:非常快,味道好 -> 答:好评 [Round 4] 问:这么咸真的是醉了 -> 答:差评 [Round
5
]
开源模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
全量参数微调的时候,建议小一些,1e-
5
或5e-6。
大模型
微调
模型压缩:量化、剪枝和蒸馏
具体模型结构根据任务类型分为两种:输入为单句文本的模型(如图4 所示)和输入为句对文本的模型(如图
5
所示)。
BERT
语言模型
<
...
51
52
53
54
55
56
57
58
59
60
...
>
1
2
4
5
6
7
8
9
100