首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 18种 DALL-E 3 炫酷的文字效果和提示词
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· Stable Diffusion 加速/优化/升级 优化出图速度
· Midjourney AI绘画美女提示词分享一
· 冲击传统模特,商汤发布高质量虚拟试衣Diffusion模型
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· 精通结构化提示词:如何精确操控指令的作用域与优先级
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
中文开源OCR框架对比及介绍
对于有训练和开发需求的用户来说,采用开源版本的OCR框架,成本主要是环境搭建上,因为需要自己安装pytorch,web,
GPU
版本还需要安装正确版本的CUDA+cuDNN,这部分比较容易出BUG。
OCR
开源
Chinese-LLM开源中文大语言模型合集
Chinese-LLaMA-Alpaca: 地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/
GPU
大模型
中文
大模型
llm-action:让天下没有难学的大模型
ensp; Kubernetes 常用命令大全 · 集群环境
GPU
大模型
LLM
Sora
OpenAI视频模型Sora的推理生成成本多高?
LLM)是 Decoder-Only Transformer 架构,通过 Auto Regression 的方式预测下一个 token,是一个完全的 Memory bound 场景,一般实际推理时的
GPU
Sora
推理
算力
Stable Diffusion
SD入门教程一:Stable Diffusion 基础(技术篇)
使用 VAE 后,即使消费级显卡
GPU
也能以相对较快的速度,完成降噪运算。
Stable
Diffusion
文生图
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
面对与 OpenAI 的差距,王小川坦言,在理想方面我们和 OpenAI 确实存在差距,OpenAI 的目标是探索智能的天花板,他们甚至希望设计出将 1000 万颗
GPU
连在一块的技术。
Baichuan2
百川
开源
大模型
通俗解读大模型微调(Fine Tuning)
论文中举的例子,65B的LLaMA 的微调要780GB的
GPU
内存;而用了QLoRA之后,只需要48GB。
大模型
微调
ComfyUI
ComfyUI,你开启XL钥匙打开了新世界
完全支持 SD1.x、SD2.x 和 SDXL 异步队列系统 仅重新执行在执行之间更改的工作流部分(节省计算资源) 甚至可以使用cpu进行生图(很慢),可以在小于3G显存的
GPU
上运行 可以加载
ComfyUI
大模型
开源
最新最全的开源中文大语言模型列表
地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca 简介:中文LLaMA&Alpaca大语言模型+本地CPU/
GPU
大模型
混合专家模型 (MoE) 详解
这种低效主要是因为
GPU
并不是为处理这种结构而设计的,而且由于设备间需要传递数据,网络带宽常常成为性能瓶颈。
MoE大模型
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
Codeshell基于Megatron-LM,在Attention算子优化、数据预处理、数据加载、日志输出、状态监控、分布式训练管理等方面进行了深度定制,支持Flash Attention2加速,训练吞吐量达到了每
GPU
开源模型
AI编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
Xinference 不仅支持在CPU上进行推理,而且在
GPU
繁忙时,可以将部分计算任务交给 CPU 来完成,从而提高系统的吞吐率。
开源模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
其中 70 亿参数的模型用于
GPU
和 TPU 上的高效部署和开发,20 亿参数的模型用于 CPU 和端侧应用程序。
开源模型
Gemma
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
基于基础模型训练的SFT模型通常只需要1-100个
GPU
训练几天即可。
大模型
大模型
大模型时代 AI 技术在金融行业的创新应用
该架构的底层是算力资源层,包括各类高性能异构
GPU
资源、高性能存储资源和高性能网络资源。
大模型
金融
<
...
6
7
8
9
10
11
12
13
14
15
>
1
2
4
5
6
7
8
9
100