首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 为你推荐开源项目:Meridian——专属个人情报站!
· 阿里Qwen3系列模型惊艳亮相
· 关于AI声音生成的一切(语音+音乐+嘴型)
· Stable Diffusion|儿童绘本全流程制作分享
· 腾讯开源混元AI绘画大模型
· Stable diffusion 有哪些不错的模型
· Stable Diffusion 加速/优化/升级 优化出图速度
· AI虚拟主播数字人技术实现Wav2Lip
· ai出图软件Fooocus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需要向量数据库了?
的确,OpenAI 在现场频频放出大招,宣布推出 GPT-
4
Turbo 模型、全新 Assistants API 和一系列增强功能。
RAG
检索
向量库
OpenAI
《OpenAI官方:GPT 最佳实践》大白话编译解读版本
使用分隔符清晰地指示输入的不同部分
4
.
提示词
官方
翻译
几个对我影响很大的统计学模型
o 约人谈重要的事,最好约在上午; o 医生在上午的手术操作更流畅; o 车祸的高峰时间下午是2-
4
点。
统计学
大模型
ChatGPT
ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
(注意:例子仅为简单演示,未做具体要求优化)
4
、提出要求(Request) 在明确了ChatGPT的任务主题后,接下来就是提出更详细的任务要求。
ChatGPT
大模型
ChatGPT
26个超级技巧,让你的ChatGPT直接起飞
4
- 使用肯定指令,如“做”,避免使用否定语言,如“不要”。
ChatGPT
大模型
真格基金大模型能力测试问题集---进阶篇
4
:切片的苹果功能失调。
中文
评测
大模型
SD插件|EasyPhoto|妙鸭相机平替|美颜算法
gradient accumulationsteps 是否进行梯度累计,默认值为
4
,结合train batch size来看,每个Step相当于喂入四张图片
EasyPhoto
文生图
强!推荐一款自动化神器Autolt:不再重复工作!
3、使用前,先下载: https://www.autoitscript.com/site/autoit/downloads/ 安装完成后打开AutoIt v3所在的文件夹
4
、查看API手册:
Autolt
自动化
知识树:一个方法,教你构建「终身知识体系」
2、个人背景 ①我们的时间和精力非常有限 每个人一天就只有24小时,只能学那点东西,不可能像人工
智
能一样,可以在短短几秒之内,就把整个图书馆所有的书全部学完。
大模型
Prompt
文生图提示词prompt详解
也就是套两层是1.1*1.1=1.21倍,套三层是1.331倍,套
4
层是1.4641倍。
SD
prompt
文生图
提示词
Stable Diffusion
Stable Diffusion高精度换脸
(
4
)选择脚本并执行生成图片 (5)精修后的图片(2K) 操作步骤三:对精修后的进行高精度处理 (1)发送到后期处理 (2)选择放大算法
Stable
Diffusion
文生图
ChatGPT
PHP提示词技巧,全方位精调ChatGPT复杂任务生成效果!!!
4
.社会反应: 描写民众、媒体和其他政府部门对这场争论的反应,显示人们对政府无能和轻率的失望和愤怒。
大模型
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
4
.宽度和高度 (Width/Height),输出图像的大小。
Stable
Diffusion
图生图
Prompt
写好Prompt提示工程的一套通用框架 - 5个关键要素
4
.
Prompt
提示工程
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言 GPT-
4
是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
<
...
53
54
55
56
57
58
59
60
61
62
...
>
1
2
4
5
6
7
8
9
100