首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 详解Stable Diffusion提示词prompt语法
· stable diffusion最全18种controlnet模型,详细教程讲解。
· 如何下载及使用通义千问7B开源大模型
· 完全指南——使用python提取PDF中的文本信息(包括表格和图片OCR)
· 关于AI声音生成的一切(语音+音乐+嘴型)
· 火山写作
· 大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
· Embedding开源模型重磅玩家:北京智源人工智能研究院最新Embedding模型发布!登顶MTEB,免费商用授权!
· 请以“续航”为题目,写一篇议论文
· 迄今为止,最强ChatGPT写论文技巧,总共6步,手把手告诉你!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
领域大模型LLM
训
练
Trick
答:如果仅仅使用领域数据集进行模型
训
练
,模型很容易出现灾难性遗忘现象,为了解决这个问题通常在领域
训
练
的过程中加入通用数据集。
垂直
训练
大模型
大模型
领域大模型-
训
练
Trick&落地思考
如果仅用领域数据进行模型
训
练
,模型很容易出现灾难性遗忘现象,通常在领域
训
练
过程中加入通用数据。
垂直
训练
大模型
如何使用 Megatron-LM
训
练
语言模型
在 PyTorch 中
训
练
大语言模型不仅仅是写一个
训
练
循环这么简单。
开源模型
大模型
大模型
训
练
工程那些事
预
训
练
、继续预
训
练
、对齐(SFT、RLHF) 这些流程和术语对大家来说应该并不陌生。
训练工程
大模型
免
训
练
!单图秒级别生成AI写真,人像生成进入无需
训
练
的单阶段时代
这一创新版本摒弃了传统的人物模型
训
练
过程,能够直接生成 zero-shot 目标人像,引领 AI 人像生成进入了无需
训
练
的单阶段时代。
FaceChain
FACT
文生图
ChatGLM
使用自己的数据
训
练
清华ChatGLM2-6B 模型
解开这里的注释: image-20230805174737559
训
练
P-Tuning v2 运行以下指令进行
训
练
: .
ChatGLM2-6B
大模型
大模型
训
练
为什么用A100不用4090
大模型
训
练
为什么不能用 4090 GPU
训
练
性能和成本对比 LambdaLabs 有个很好的 GPU 单机
训
练
性能和成本对比,在此摘录如下。
大模型
大模型
视频大模型
训
练
相关词条解释
Sora采用Diffusion Transformer (DiT)架构进行
训
练
。
视频生成
sora
词条
大模型
预
训
练
对话大模型深度解读
其实它只是一个数学模型,它强大的原因是:用到的计算量很大、数据量很大、
训
练
语言模型的方法比以前好。
大规模
训
练
系列之技术挑战
0 前言 本次分享是大规模
训
练
技术系列的第一篇,主要包括两个部分: · 大规模
训
练
技术的意义 · 大规模
训
练
的技术挑战 1 大规模
训
练
技术的意义 1.1
训
练
的精度极限
开源模型
工具
HAI-Chat:高效且轻量的一键式 RLHF
训
练
工具
幻方x深度求索在萤火智算集群上进行大量的 RLHF
训
练
实践,研发优化了一套轻量的 PPO
训
练
工具,名叫 HAI-Chat。
HAI-Chat
RLHF
Microsoft
来自Microsoft Build 2023:大语言模型是如何被
训
练
出来的
本场汇报共40多分钟,包含2个方面,一个是如何
训
练
出GPT这样的大语言模型,里面包含了大语言模型的
训
练
过程以及相关的技术,虽然是一种high-level的讲解,但是对于理解ChatGPT的
训
练
十分有用。
大模型
一文读懂GPT-1:生成式预
训
练
如何提升语言理解
GPT-1首先利用大量未标注文本进行预
训
练
,然后针对特定任务进行有监督的微调。
GPT
Prompt
Prompt工程如此强大,我们还需要模型
训
练
吗?
3.如果我们还需要模型
训
练
,例如在GPT3基础上把21年以后的数据喂进去,其中学到的新信息与
大模型
大模型
图解大模型
训
练
之:张量模型并行(TP),Megatron-LM
今天我们将要介绍最重要,也是目前基于Transformer做大模型预
训
练
最基本的并行范式:来自NVIDIA的张量模型并行(TP)。
开源模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100