首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion|提示词高阶用法(二)双人同图
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
· 收藏!万字长文聊聊LLM Agents的现状,问题与未来
· 实测:本地跑llama3:70B需要什么配置
· Suno音乐新手指南(手把手完整版教程)
· 盘点字节跳动最新的AI应用
· Coze多智能体(Multi-Agents)模式体验!
· 最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
在传统科学中,可证伪意味着某些东西可以被证明是错误的,但在这个案例中,它只表示必须有某种方法来削
弱
我们对一个假设的信念。
贝叶斯定理
GPTs
深入探讨GPTs和AI Assistant
GPTs 提供了一种更
智
能、更个性化的体验,无需每次都进行教育,使用户能够更快地获得答案。
GPTs
AI
Assistant
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
详细的比较将使您能够做出最佳的技术选择,以实现您的业务和人工
智
能目标。
训练
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
MaskGCT已在香港中文大学(深圳)与上海人工
智
能实验室联合开发的开源系统Amphion发布,Amphion今天登上了Github global trending榜首!
MaskGCT
声音克隆
ChatGPT
聊天机器人阅读 PDF?用这25个提示词技巧,亲测有效!(ChatGPT & Claude 2)
准备工作完成以后,我们就开始
吧
!
GPT-4
工作
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
特别是,微调可以应用于RAG系统,以识别和改进其较
弱
的组件,帮助它们在特定LLM任务上表现出色。
大模型
微调
写作
AI写作不如意?万字长文深度剖析背后原因
作者们观察到“沿着人工
智
能整合的光谱,成功使用AI的人呈现出两种独特的模式。”
AI写作
ComfyUI
从零开始:构建你的首个ComfyUI工作流
到这里你已经基本上学会如何操作ComfyUI出图了
吧
,那我们现在用学到的技巧在comfyUI中做一个超酷的工作流
吧
,如图所示: 不知道你看完是什么感受,是不是想卸载
comfyui
文生图
工作流程
Stable Diffusion
Stable Diffusion 文生图全网最细详解
但是这个质量
吧
,还是很差的, 实事上呢, 是我们的 prompt 写的太差劲了 导致的 如果我们完善一点 (丰富一些 prompt ) 会发现效果质量立竿见影;而我们只是加入了一些通用的 prompt
文生图
SD
SDXL
分享使用SDXL 1.0模型的一些技巧和心得
自己去玩
吧
!
文生图
LLM
基于LLM+向量库的文档对话痛点及解决方案
这部分代码网上似乎没有,那我贴出来
吧
def is_nextsent(sent, next_sent):  
开源模型
大模型
造梦师手记:足控专属AI大模型,完美的少女
scene, detailed faces, perfect quality, tranding on artstation, incredible details 7、邂逅,拍个照
吧
pony
大模型
文生图
Prompt
让你起飞的五个Prompt框架模型
在当今日益数字化的世界中,人工
智
能已经成为我们日常生活的重要组成部分。
prompt
大模型
微调
微调大型语言模型-核心思想和方法介绍
在快速发展的人工智能领域,高效且有效地利用大型语言模型 (LLM) 变得越来越重要。但是我们可以通过许多不同的方式使用大型语言模型,如果您刚开始,这可能会让人不知所措。本质上,我们可以通过两种主要方式将预训练的大型语言模型用于新任务:上下文学习(in-context learning)和微调(finetuning)。在本文中,我们将简要介绍in-context learning的含义,然后我们将介绍微调 LLM 的各种方法。
大模型
训练
神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
在当今数字化时代,文本转语音(TTS)技术的应用愈发广泛,从
智
能语音助手到有声读物,从无障碍服务到教育娱乐领域,都离不开高质量的语音合成。
OuteTTS-0.1-350M
音频
<
...
31
32
33
34
35
36
37
38
39
40
...
>
1
2
4
5
6
7
8
9
100