首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 高效选择:Ollama与LM Studio深度对比
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 【Agent专题】Agent架构设计:智能体架构设计的9大核心技术全景深解析,附架构图
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· 2024年傅盛开年AI大课演讲内容PPT
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
实验验证,多机训练的效率,和使用的机器数成线性关系,每台机器的配置一样,如一台
GPU
机器跑一个epoch需要2小时,4台
GPU
机器跑一个epoch需要半小时。
大模型
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
ChatGLM3-TPU: 采用TPU加速推理方案,在算能端侧芯片BM1684X(16T@FP16,
内
存
ChatGLM3
语音模型
开源模型
大模型
智谱AI大模型ChatGLM3-6B更新,快來部署体验
如果你的
GPU
显
存
有限,可以尝试以量化方式加载模型,使用方法如下: model = AutoModel.from_pretrained("THUDM/chatglm3-6b", trust_remote_code
ChatGLM3-6B
开源模型
ComfyUI
无需编码,轻松提升图像品质:探索ComfyUI的图像增强功能
支持
GPU
和CPU:即使在VRAM很少的系统上,用户也可以使用超过3GB VRAM的
GPU
的功率,或者选择CPU处理。
文生图
大模型
AI+大模型在金融行业的应用场景
从潜在赋能的细分环节看,包含智能核身、智能催收、智能客服等在
内
的应用持续推出且逐步成熟,而智能投研、智能投顾、智能营销等高市场价值的环节仍然
存
在较大提升空间。
AI大模型
金融
从0到1谈谈智能客服系统的设计与实现
由于所有的Faiss索引都将向量
存
储在
内
存
中,如果
内
存
是限制因素,那么就需要将准确度和性能进行折衷:b.
智能客服
换脸
换脸软件 FaceFusion 保姆级教程
FaceFusion 是由 Roop 项目的核心开发者独立发布的,它被官方描述为下一代的人脸交换和增强软件,这个软件可以用于处理图片和视频,可以运行在
GPU
和 CPU 下面。
FaceFusion
教程
大模型
万字长文,AI大模型的应用实践总结
对于以Transformer、MOE结构为代表的大模型来说,传统的单机单卡训练模式肯定不能满足上千(万)亿级参数的模型训练,这时候我们就需要解决
内
存
墙和通信墙等一系列问题,在单机多卡或者多机多卡进行模型训练
大模型
ComfyUI
ComfyUI的特性以及安装流程
命令行选项:--lowvram,可在显
存
小于 3GB 的
GPU
上工作(在显
存
较低的
GPU
上自动启用) 即使没有
GPU
,也可以使用 --cpu 进行工作(速度较慢) 可以加载 ckpt
ComfyUI
文生图
OpenAI
Agent:OpenAI的下一步,亚马逊云科技站在第5层
OpenAI创始成员Andrej Karpathy就在黑客马拉松演讲中表示,相比大模型训练,OpenAI
内
部目前更关注Agent领域。
开源模型
开源
字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
这种技术在保持高分辨率的同时,能够生成高质量的3D
内
容,非常适合用于3D说话头像的生成。
MimicTalk
开源模型
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
智源研究院与国
内
多所高校及南洋理工联合团队,挑战成功。
大模型
微信向量检索分析一体化数仓探索:OLAP For Embedding
并没有打满,于是我们打开 profile tool, 发现执行过程中有大量的 data copy,时间开销巨大,于是我们重写了 embedding distance 相关的计算函数,消除了不必要的
内
存
拷贝
OLAP
For
Embedding
一体化数仓
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
本次分享主要包含五块
内
容,分别是:一、Prompt 工程化:代码与模型解耦 二、私有化数据接⼊:持续更新与调整三、Agent 的演进:自动化编排四、我们最终会丢掉 LangChain
大模型
大规模训练系列之技术挑战
数据并行通过修改 Sampler 切分输入,每张卡只需要处理一部分数据; 模型并行通过修改层
内
的计算方式,将单层的计算负载和显
存
负载切分到多张卡上; 流水并行则是将不同的层放到不同的卡上,进而将计算负载和显
存
负载切分至多张卡上
开源模型
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100