首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· GenColor.ai
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· AI声音克隆 | 最全最简教程(权威版)
· Westlake - Omni:西湖心辰推出的全球首个开源的中文情感端 - 端语音交互大模型
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
非自回归系统在训练期间需要显式的文本和语音之间的对齐信息,并
预
测
语言单位(例如音素)的持续时间,这可能会影响其自然性。
语音克隆
开源模型
RAG
如何提高RAG 的效果
预
设多个Prompt 模板 这个笔者在前面的文章中也提到过,比如:检索的质量较高的情况下,可以使用完全根据参考信息来回答的Prompt模板,在检索不到内容或者检索的质量低的情况下,可以让模型根据自己的知识来回答
RAG
大模型
开源
「Agent」通俗易懂地聊聊AI Agent(附66个开源+44个闭源Agent项目)
工具组件(Tools) · 代理学习调用外部 API 来获取模型权重中缺失的额外信息(通常在
预
训练后很难更改
大模型
大模型
LLM大模型推理输出生成方式总结
参数:top_p (取值范围:0-1) top-P采样方法往往与top-K采样方法结合使用,每次选取两者中最小的采样范围进行采样,可以减少
预
测
分布过于平缓时采样到极小概率单词的几率。
大模型
大模型
大模型能力评估体系
为了实现更加公正和全面的评
测
,一些机构采取了过程公开的评
测
方法。
大模型
评估
GPTs
刚上线就崩了?字节版 GPTs 征战国内市场:无需编码,快速创建 AI 聊天机器人
有网友反馈,Coze 刚上线就崩了,InfoQ 实
测
发现,Coze 创建界面长时间显示确认中,或许与刚上线流量过大有关。
Coze
聊天机器人
ChatGPT
40个麦肯锡高手常用的、鲜为人知的ChatGPT指令
从最小可行产品(MVP)、构建-
测
量-学习循环和基于反馈的调整来思考。”
ChatGPT
prompt
耗时7天,终于把15种ControlNet模型搞明白了
提示词的作用是奠定整个图的大致画面 Lora的作用是让图片主体符合我们的需求 ControNet的作用是精细化控制整体图片的元素——主体、背景、风格、形式等 提示词的用法我在SD的教程里讲过,这个更多的是需要平时的积累,用AB
测
试去知道每个词对图片产生的影响
文生图
爆肝7天!AI艺术字终极攻略,光影、隐藏、嵌入、海报4种艺术字全拆解
图片上面有什么元素,去决定字体和字体的粗细 像生成蛋糕、面包这种文字,可以适当加粗文字 选大模型 底图做好了之后,就可以来到SD生成文字 首先先选一个真实的大模型 在我实际
测
试下来
文生图
一个令人惊艳的图片高清化重绘神器:SUPIR来了!
效果展示 经过我的实
测
,这个项目特别适合低分辨率和模糊照片的高清化处理,比Stable Diffusion WebUI中的高清化效果要好上很多。
SUPIR
文生图
ComfyUI
ComfyUI-DDetailer脸部修复
§ § BBox—detector:检
测
加载器。
ComfyUI
脸部修复
开源
6个最佳开源TTS引擎
提供
预
训练模型,以及用于
测
量数据集质量的工具,支持用于产品和研究的20多种语言,包括支持中文。
TTS引擎
开源模型
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的
预
训练与人类偏好对齐训练,评
测
结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(
知识库
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
基础模型通过在大规模数据上进行
预
训练,学习到了丰富的语义信息和世界知识。
论文
机器人
大模型
大模型时代-行业落地的再思考
· 在一个通用模型的基础上做continue pretraining(继续
预
训练,二次
预
训练),像LawGPT就是做了二次
预
训练的。
大模型
<
...
24
25
26
27
28
29
30
31
32
33
...
>
1
2
4
5
6
7
8
9
100