首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
· Suno音乐新手指南(手把手完整版教程)
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 国产视频制作之光-可灵:提示词大全整理
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 掌握Prompt的6心法
· 吐司
· 五大AI工具自动生成PPT效果对比
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
Stable Diffusion|提示词高阶用法(四)LoRA指定区域
众所周知,LoRA模型的标准使用格
式
为: <lora:LoRA模型的名称:LoRA权重值> 而LoRA模型的分层控制,则是在LoRA权重值后,增加“:”,并添加的LoRA模型的17个分层的对应权重值代码
文生图
大模型
大模型LLM基础|分词
统计分词 通过分析语料库中的统计信息来发现最有可能的分词方
式
。
开源模型
大模型
大模型能力快速测评极简题目
用{number}种不同的方
式
改写以下段落,以避免重复,同时保持其含义:{text}。
大模型
ComfyUI
ComfyUI 基础教程(二):文生图基础流程
在这个过程中,节点的创建方
式
有两种:节点目录方
式
:通过鼠标右键呼出节点目录,你可以直接从目录中选择所需的节点。
comfyui
文生图
教程
SD入门教程三:采样器及参数调整
采样方
式
就是指sd用什么算法进行图片生成,影响出图质量以及出图速度。
SD
入门教程
SDXL
【分享】SDXL模型最佳拍档!COMFY UI上手指南
在使用上,COMFY-UI采用的是工作流模
式
: 可以说,工作流就是COMFY的灵魂。
大模型
OpenAI
《OpenAI官方:GPT 最佳实践》大白话编译解读版本
如果你不喜欢输出的格
式
,可以演示你想看到的格
式
。
提示词
官方
翻译
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
如果要训练模型的话,以使用的训练模
式
不同,优化方
式
不同,所需要的计算资源会更多。
大语言模型
运行
Prompt
40个prompt,让你成为麦肯锡高手
改善(持续改进): “用改善的哲学思想来分析[我的商业决策],考虑这个决策如何支持业务的持续、渐进
式
改进,并不断寻求优化和创新的机会。”
prompt
大模型
真格基金大模型能力测试问题集---基础篇
作为早期投资人,我们经常需要试用和评估新发布的对话
式
AI 产品,其中比较常用的方
式
是通过一些 Prompts,将它们与标志性的 ChatGPT 的输出结果进行直观的横向对比。
大模型
训练
中文
如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
{content}<|im_end|> <|im_start|>user 首先,确定找到的内容是否 是其次,以 JSON 格
式
进行响应: { "content_contains_answer
大模型
Prompt
马上掌握这18个Prompts,让你的工作效率瞬间暴涨10倍!
制定强大的商业模
式
"帮助我使用商业模型画布为我的[产品或服务]制定健壮的商业模
式
。"
开源模型
Python
Python几种常见算法汇总
我们使用递归的方
式
实现快速排序算法,首先选择一个基准值pivot,然后将列表分为左右两个部分,左边部分的元素小于基准值,右边部分的元素大于基准值,然后递归地对左右两个部分进行排序,最后将左、中、右三个部分合并成一个有序的列表
编程
python
算法
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
MiniCPM-V 2.6 可以通过多种方
式
轻松使用:(1) llama.cpp 和 ollama 支持在本地设备上进行高效的 CPU 推理,(2)&
MiniCPM-V
2.6
大模型
LLM
Byzer-LLM 快速体验智谱 GLM-4
也可以用流
式
接口: v = llm.stream_chat_oai(model=chat_name,conversations=[{ "role":"user",
Byzer-LLM
GLM-4
<
...
64
65
66
67
68
69
70
71
72
73
...
>
1
2
4
5
6
7
8
9
100