首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· OpenAI Assistants API 使用指南
· OpenDataLab
· Agent:OpenAI的下一步,亚马逊云科技站在第5层
· 耗时7天,终于把15种ControlNet模型搞明白了
· 好看的图片不知道怎么写提示词?用AI读出来
· 关于AI声音生成的一切(语音+音乐+嘴型)
· SD入门教程二:文生图基础用法(提示词)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
Dynamic Prompts插件,魔法提示词由魔法帮你补全(插件篇)
组
合
生成 动态提示词能分离,自然也能组
合
。
文生图
提示词
Github
GItHub一款强大、简单、易用的高效的数据处理RPA小工具
例如,银行业需要处理大量的交易数据和
合
规性要求,医疗健康领域需要处理病历和医疗账单等。
GitHub
数据处理RPA
Stable Diffusion
回来啦 | Stable Diffusion 图片背景完美替换
整
体步骤: 1.
Stable
Diffusion
文生图
微调
LLM微调经验&认知
如果说指令微调是为了让模型“能说会说”,那RLHF更多是让模型“说得更符
合
心意”。
LLM
大模型
大模型
大模型训练工程那些事
结
合
当下大模型人工智能领域的盛况与投入,将其比喻成曼哈顿工程并不夸张。
训练工程
大模型
教程
谁杀死了我们的技术教程?网络技术教程越来越少?
但是,也需要注意归纳,都是生命周期,就算你想讲透彻底层如何实现,难道不是
整
合
多个生命周期一起讲解?
技术
技术教程
Stable Diffusion
stable diffusion十七种controlnet详细使用方法总结
,与原图也更加吻
合
8.scribble 你还在为画画太丑而烦恼吗,上传简简单单的涂鸦手绘,即可生成一张炫酷图片,例如上传一张丑到爆炸的跑车涂鸦
绘画
作图
替代画师?不,AI把枪指向了商业摄影
融
合
信息: 前几次
合
并使用的是常规权重和: A*(1-alpha)+B*alpha / 添加差异:A+(B-C)*alpha / 三重和:A*(1-alpha-beta)方法和普通计算模式。
文生图
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
今天对百川的RAG方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结
合
的方法来解决知识更新,降低模型幻觉的问题,使得其在
RAG
大模型
Midjourney
【工具书】文生图Midjourney最全prompt提示词分类对照表
studded garter belt 吊袜带 sock dangle 大腿系带 thigh strap 腿部花边环 leg_garter
包
扎腿
提示词
prompt
文生图
ChatGPT
40个麦肯锡高手常用的、鲜为人知的ChatGPT指令
产品/市场契
合
:“通过检查产品/市场契
合
来评估[我的商业决策]。
ChatGPT
prompt
Prompt
让你起飞的五个Prompt框架模型
解释 (Explanation): 这一部分涉及更深入地解释你的情境,
包
括可能的好处和风险。
prompt
大模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适
合
各种文本生成任务,
包
括问答、总结和推理
ollama
gemma
qwen
SDXL
第3期 SDXL和SD的10大区别!你知道几个?
SDXL 基础模型所使用的 Unet
包
含了2.6B(26亿)的参数,对比 SD1.5的 860M(8600万),相差超过三倍。
文生图
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
/hf_self/ # 模型
合
并 export MKL_SERVICE_FORCE_INTEL=1 xtuner convert merge /root/model/meta-llama/Meta-Llama
Llama3
对话问答模型
<
...
69
70
71
72
73
74
75
76
77
78
...
>
1
2
4
5
6
7
8
9
100