首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 为你推荐开源项目:Meridian——专属个人情报站!
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 【ComfyUI】爽玩必备,6大插件汇总推荐 !
· 大模型应用的10种架构模式
· 变天了,AI可以一键生成中文海报了......
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 17K star!30秒偷走你的声音,开源声音克隆工具
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
清华
图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
LCM的训练过程也很高效,只需要大约32个A100
GPU
的训练时间,就可以完成对SD模型的蒸馏。
LCM/LCM-LoRA
文生图
大模型
最佳开源文生图大模型可图:安装与批量出图的完整教程
其中要注意的是torch还有torchvision一定要用cuda的版本,也就是可以
GPU
推理的版本,也就是后面带着cu+数字这种,torch安装网上教程很多,我这里简单列几个必要的命令给大家参考。
可图
kolors
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
你怎么知道我们需要
GPU
?
Llama
3
大语言模型
数据库
百万token上下文窗口也杀不死向量数据库?CPU笑了
CPU,向量数据库的好搭档 向量数据库搭配CPU,其实不只是腾讯云一家的选择,而是整个行业现阶段的主流共识: 只有面临海量高并发需求时,使用
GPU
查询向量数据库才更划算。
向量数据库
大模型
cpu
ComfyUI
Comfyui工作流管理插件,再也不用保存本地了!
4.一键分享并部署您的工作流程到云端,其他人无需设置即可使用云
GPU
在浏览器中轻松运行 出自:https://mp.weixin.qq.com/s/LSSlN5YYzLc6eLC90ht_nQ
Comfyui
工作流
插件
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
; | |-------------------------------+----------------------+----------------------+ |
GPU
大模型
ComfyUI
AI绘画:两组赛博咒语和ComfyUI使用方法!
如果你有显卡
GPU
,那么就双击 run_nvidia_gpu.bat 如果你没有显卡,就用双击run_cpu.bat 启动成功后,会自动调用浏览器
文生图
ComfyUI
ComfyUI安装及生成第一张图
将模型放入文件夹中 ComfyUI_windows_portable\ComfyUI\models\checkpoints 第4步:启动 ComfyUI 如果您有 Nvidia
GPU
:双击run_nvidia_gpu.bat
ComfyUI
文生图
Stable Diffusion
Stable Diffusion | SD阿里云3步部署,全程五分钟,免费试用三个月,电脑无需升级配置
注册好了登录图像变成这样 2、点击免费试用,选中函数计算FC,这一步是布置代码运行的算法云环境服务,对AIGC进行
GPU
推理计算。
下载
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
模型扩充了新版中文词表,开源了中文LLaMA-2和Alpaca-2大模型 开源了预训练脚本、指令精调脚本,用户可根据需要进一步训练模型 使用个人电脑的CPU/
GPU
训练
语音
「语音转换新速度」— 探秘Whisper JAX的70倍速提升
并行处理 利用JAX的pmap功能,Whisper JAX能够在多个
GPU
或TPU设备上并行处理数据。
Whisper
语音识别
微调
Qwen7b微调保姆级教程
ensp; ) 四,保存模型 为减少
GPU
Qwen7b
大模型
开源
国内外开源大语言模型一览表
BayLing can be effortlessly deployed on a consumer-grade
GPU
with 16GB of memory, and assists users with
大模型
开源
Stability AI开源上新:3D生成引入视频扩散模型
论文透露,所有三种模型(SV3D_u,SV3D_c,SV3D_p)在4个节点上训练了6天左右,每个节点配备8个80GB的A100
GPU
。
sv3d
建模
使用BELLE项目部署bloomz模型(专业程序员精简版)
7b1-mt Cpu:内存约占用27G Gpu:int8模式下,显存约占用9G左右 注:直接使用原始模型,则model_name_or_path 和ckpt_path均指定原始模型路径即可
gpu
belle
训练
大模型
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100