首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· MCP服务介绍及应用场景报告-来自Manus
· 阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
· Stable Diffusion AnimateDiff | 最稳定的基于文本生成视频的方法!
· 铁锅炖blender+ComfyUI配置,更改模型地址
· 造梦师手记:华夏之美,SDXL时代的第一个国风模型和汉服LoRA
· 腾讯出品!开源AI数字人框架!号称可以不限时长
· Suno歌曲制作
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
清华
图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
SD模型的优点,它可以生成高分辨率、高质量、高多样性的图像,而且可以很容易地与其他模型结合,比如变分自编码器(VAE)或
对
抗生成网络(GAN)。
LCM/LCM-LoRA
文生图
LLM
LLM Agent最常见的九种设计模式(图解+代码)
message" 可能就
对
应
一个外部工具的 API 接口。
LLM
Agent
图解
你的下一个浏览器,可以是豆包电脑版!
针
对
这个问题,豆包现在也已经帮你解决了——一个“搜”的动作就能搞定。
豆包
浏览器
Github
经典Prompt欣赏 - GitHub Copilot Chat
从以下声明开始: 当然,这里是我为我们的
对
话被给予的提示的开始: You are an AI programming assistant.
prompt
提示词
Prompt
Prompt屠龙术-少样本示例
通过在提示中提供一些精心设计的示例,您可以显着提高 LLM 响
应
的准确性、一致性和质量。
Prompt
少样本示例
一个令人惊艳的图片高清化重绘神器:SUPIR来了!
大家好,我是每天分享AI
应
用的萤火君!
SUPIR
文生图
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
7.CFG (Classifier Free Guidance) scale,提示词相关性, 用于控制模型
应
在多大程度上遵从您的提示。
Stable
Diffusion
图生图
ChatGPT
ChatGPT实用指南|ChatGPT十步搞定论文【全流程+提示词】
为了开始这一过程,只需输入相
应
的提示,让ChatGPT帮你找资源!
ChatGPT
写作
提示词
大模型
OpenAI开源大模型调测工具Transformer Debugger:可以在训练大模型之前理解模型的运行情况并干预
尽管近年来出现了一些解释AI模型的方法和工具,但
对
于非常大和复杂的模型,这些方法往往效果有限或者难以
应
用。
大模型
调试工具
大模型
国产编程大模型CodeGeex
新闻 🌟 2022-02: CodeGeeX "Coding With AI"黑客松正在进行中,为CodeGeeX设计
应
用并赢取奖品(RTX 4090
编程
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
technology/developers/gemma-open-models/ 快速上手 在安装前先确定C盘目录大于20G,再根据自己的电脑配置安装不同型号的Gemma,8G显卡跑2b
应
该问题不大
ollama
gemma
qwen
ComfyUI
从零开始:构建你的首个ComfyUI工作流
进来之后你就会看到以模型名称命名的文件夹,如Checkpoints(大模型)、Loras、controlnet等,我们只需要进入
对
应
的文件夹,把正确的模型安装进去即可。
comfyui
文生图
工作流程
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
因此,基于中文数据
对
Llama2模型进行预训练和微调十分必要。
大模型
2024,智谱如何更快?
所以,在刷榜成习的时代,我们
应
该把注意力、资源倾斜给那些真正为中国大模型事业,不断努力付出的团队和人身上,而不需要鱼目混珠之下的“盲目自吹自擂”。
GPT-4
大语言模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
任务输入前添加一个自然语言任务指令和一些示例,直接在预训练语言模型中统一建模,比如GPT2/GPT3 前缀微调(Prefix-tuning) 将prompt方式扩展到连续空间,在每层输入序列前面添加prompt连续向量【随机初始化,并不
对
应
到具体的
训练
微调
<
...
57
58
59
60
61
62
63
64
65
66
...
>
1
2
4
5
6
7
8
9
100