首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· ChatGLM智谱清言
· 通义千问
· 【SD魔法手册】之25个常用服饰类咒语(Prompt)
· 几款开源的OCR识别项目,收藏备用
· LLM大模型推理输出生成方式总结
· 分享一个结构化AI提示词模版
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 国内外开源大语言模型一览表
· 国内厂商语音识别与Whisper评测:现状与概况对比
· Prompt提示优化工具
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ComfyUI
ComfyUI-DDetailer脸部修复
~ 可是我们现在不是灭门
换
comfy了吗?
ComfyUI
脸部修复
写作
火山写作:一款助力写作能力提升的AI助手
完成之后,你可以选择替
换
原文,或者将改进后的文本复制出来以备后续使用。
火山写作
工具
文章
ComfyUI
使用python调用comfyui-api,实现出图自由
; 替
换
相应的参数
comfyui
工作流
Fooocus制作从小到老图
通配符的意思也非常简单,比如我的关键词:5岁的女孩,那么使用可以给他从5岁到80让他每次替
换
即可。
Fooocus
文生图
年龄
大模型
做大模型需要的环境设置
今天在下载OpenCV的时候发现清华的conda channel镜像已经不能用了,故在此记录: 1)如何显示所有channel; 2)如何更
换
channel。
开发环境
大模型
体验了几款AI工具&&最新出现的跟数字人相关的几款大模型
AI 为人物照片更
换
衣服 https://zero10.ar/newsroom/harnessing-generative-ai-for-virtual-try-on 5.
数字人
大模型
文生图
伦敦出租车司机的遭遇,暗示了程序员的未来
分析发现,柜台人员的职责发生了变化,他们
转
行了,开始提供更复杂的服务,比如财务顾问或客户关系管理。
人工智能
伦理
ChatGPT
保姆级AI写论文,ChatGPT写论文指令全集
内容方向等做出限定) 缩写: 请使用学术语言,对以下内容进行缩写:xxxxx (输入需要缩写的内容,指令可以自行修改) 论文降重: 小幅度降重:请使用逻辑性和学术风格对以下内容进行改写,可以通过调
换
语句顺序或替
换
同义词来达到改写目的
ChatGPT
指令
语音
6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
呵呵,不是不支持就是发音像老外学中文 多语言切
换
?
MeloTTS
语音工具
开源
阿里推理模型来了!Marco-o1 发布即开源
它能够准确理解并翻译俚语表达,将「这个鞋拥有踩屎感」这样的口语化表达优雅地
转
化为「This shoe has a comfortable sole」。
Marco-o1
推理模型
教程
本地部署Manus+DeepSeek保姆级教程!
如果有其他平台的API Key,也是相同操作,替
换
掉应用的【model】【base_url】和【api_key】的值就好了。
Manus
DeepSeek
教程
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
功能使用方面 · 支持 50 + 种不同的真实场景的用户问询(query)(如常见的广告创作,起草邮件,作文润色,代码生成等)能够评估各类大模型在广泛场景下的对齐表现; · 它能够无缝切
换
两种最常见的评估范式
Auto-J
大模型
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
用户输入变复杂:与传统关键词或者短语搜索逻辑不太一致,用户输入问题不再是词或者短句,而是
转
变成自然对话声知识多轮对话数据,问题形式更加多元,紧密关联上下文,输入风格更加口语化。
RAG
大模型
工具
五大AI工具自动生成PPT效果对比
下载后的页面背景都是白色的,可以用WPS更
换
设计页面或者使用Office的设计器来生成灵感进行美化。
PPT
办公智能
大语言模型的拐杖——RLHF基于人类反馈的强化学习
RLHF通过用人类生成的反馈替
换
或补充预定义的奖励函数,从而允许模型更好地捕捉复杂的人类偏好和理解,从而增强了这个过程。
大模型
训练
<
...
45
46
47
48
49
50
51
52
53
54
...
>
1
2
4
5
6
7
8
9
100