首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 论文润色 | GPT4.0论文润色指令总结(含GPT3.5和4.0润色效果对比)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 用so-vits-svc-4.1进行音色转换的极简教程!
· 造梦师手记:C站最受欢迎的大模型推出了SFW版
· 秘塔AI搜索
· AI自动生成视频全流程干货
· Suno音乐新手指南(手把手完整版教程)
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
毫无疑问,得分最高的是GPT-
4
,也是唯一一个超过了80分的模型。
大模型
Stable Diffusion
Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
SDXL-Turbo 基于一种称为对抗扩散蒸馏 (ADD) 的新颖训练方法,该方法允许在高图像质量下以 1 到
4
个步骤对大规模基础图像扩散模型进行采样。
sdxl
SD
绘画
心理
心理健康AI应用空白:LLM评估基准震撼出炉(附Prompt模板)
证据 在问答任务中,GPT-
4
展现了显著优于其他模型的性能。
大模型
心理
大模型
大模型压缩首篇综述来啦~
LLM-QAT能够将带有量化权重和KV缓存的大型LLaMA模型蒸馏为仅有
4
位的模型。
大模型
OpenAI
来自OpenAI应用研究主管关于Agent的万字长文-AI Agents介绍
要学习几乎最优的上下文强化学习算法,需要2-
4
个剧集的多剧集上下文。
Agent
提示词
建筑物提示词
--ar
4
:5 --s 250 --style raw Envision a Zaha Hadid style shopping complex in Dubai, its fluid
画图提示词
ChatGPT
ChatGPT提示工程5篇合集(一):ChatGPT提示工程的两个关键原则 - 吴恩达和OpenAI合作(珍藏版)
a cup and put a tea bag in it.Step 3 - Once the water is hot enough, pour it over the tea bag.Step
4
prompt
提示词
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.5 ViTPose的训练灵活性 表
4
使用不同模块进行训练的ViTPose性能 为了充分探索ViTPose中各个模块对于姿态估计任务的贡献,ViTPose
ViTPose+
Transformer
身体姿态
在 WebUI 中使用 AnimateDiff 的一些问题和技巧
lt;lora:yoimiya:0.8>, 2 0: closed mouth 3 8: open mouse
4
AnimateDiff
SD
写作
深入探讨:Agent全自动写作长篇小说技术原理解析
不仅如此,这个工具还结合了GPT-
4
、Stable Diffusion API和Anthropic API等技术,甚至能自动设计出小说的封面,并生成PDF或电子书版本。
Agent
换脸
AI换脸工具:facefusion使用心得
4
.
FaceFusion
文生图
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
刚刚,Scale AI 的一篇论文对当前最热门的大模型进行了深度调查,包括 OpenAI 的 GPT-
4
、Gemini、Claude、Mistral、Llama
过拟合
小模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
在默认配置 quantization_bit=
4
、per_device_train_batch_size=1、gradient_accumulation_steps=16 下,INT4
ChatGLM2-6B
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
不同阶段产生的模型能力不同,训练的成本也不一样,预训练阶段的基础模型资源消耗最高
4
.
大模型
大模型
国内法律类大模型介绍
清华大学 * Code: https:/github.com/AndrewZhe/lawyer-llama
4
.
法律
大模型
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100