首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· StableDiffusion模型推荐系列(全能型)
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· Gpt写小说,常用的中文指令集「实操篇」
· 超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 揭秘DeepSeek:一个更极致的中国技术理想主义故事
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 入坑必看:comfyui界面与基础操作
· AI创作 |如何通过GPT进行漫画视频的故事改写
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ComfyUI
从零开始:构建你的首个ComfyUI工作流
它实际上就是一个比较专
业
的Stable Diffusion运
行
界面,只不过是节点式的。
comfyui
文生图
工作流程
人工智能
目前有哪些比较成功的人工智能应用?
广泛共识: 在学术界和工
业
界都得到了广泛认可。
生成式AI
Agent
AI Agent / 智能体观察笔记(中)
每一个智能体的身份、职
业
和与其他人的关系,都包含在一个一段话的提示词之中。
大模型
混合专家模型 (MoE) 详解
简短
总
结
混合专家模型 (MoEs): · 与稠密模型相比, 预训练速度更快 · 与具有相同参数数量的模型相比,具有更快的 推理速度 · 需要&
MoE大模型
理解 o3 及其技术分析
目前o1还有两个无法解释的地方: o1模型API不能控制temperature o1的reasoning token
总
是64的倍数 2.3、多路推理方式的推测(1)
o3
技术分析
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
以下测试
结
果也是魔法哥的主观判断,请谨慎看待: · Moonshot API 的输出速度比不上 GPT-3.5 Turbo,但明显比 GPT-4 Turbo 要快一些。
Kimi
Chat
大模型
API
微调
微调大型语言模型-核心思想和方法介绍
但是,如果我们可以访问 LLM,则使用来自目标域的数据在目标任务上对其进
行
调整和微调通常会产生更好的
结
果。
大模型
训练
数字人
教你用StableDiffusion设计AI数字人
那么
结
果如何呢?
文生图
FaceFusion又更新咯,增强功能再增强!
ensp;Apple Silicon 性能 将视频质量修复为压缩标准化 修复 Windows 防火墙导致的下载卡住问题 我
总
结
了一下
FaceFusion
文生图
ChatGPT
ChatGPT 技巧 | Prompt 逆向工程
你看到一篇文章,会去分析作者的立意和
结
构,这叫做逆向;你拿到一个 apk 文件,去反编译软件包寻找想要的代码片段,这也叫做逆向;甚至对车辆、飞机、火箭的生产过程进
行
逆向……
总
之,逆向就是在你不掌握原理和过程的情况下
chatgpt
提示词
prompt
深入浅出:大语言模型中必不可少的技术——Embedding简介
如何生成和存储Embedding
总
结
Embeddings技术简介及其历史概要 在机器学习和自然语言处理中,embedding是指将高维度的数据(例如文字
embedding
RAG
必读!RAG好用的3种Router
然后,它选择在最相关的训练查询中表现最佳的专家模型来执
行
测试查询。
RAG
Router
AI生成卡通人物项目|VToonify
广泛的实验
结
果表明,我们提出的 VToonify 框架在生成高质量和时间上连贯的艺术肖像视频以及灵活的风格控制方面优于现有方法。
AI生成卡通人物
VToonify
RAG
12个RAG常见痛点及解决方案
这里使用“痛点”而不是“失败点”,主要是因为我们
总
结
的问题都有相应的建议解决方案。
RAG
大模型
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
GLM-Z1-32B-0414:主攻推理,序列长度介于32K到128K之间 § GLM-Z1-32B-Rumination-0414:主攻推理,序列长度为128K 而随着一系列模型的开源,智谱也解锁了一项
行
业
之最
GLM模型
智谱
<
...
59
60
61
62
63
64
65
66
67
68
...
>
1
2
4
5
6
7
8
9
100