首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 好看的图片不知道怎么写提示词?用AI读出来
· PPT又又有新突破了!智谱AI代码流造PPT
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 剪映专业版智能补帧
· 吴恩达的ChatGPT提示工程师教程1-9集全
· 国产视频制作之光-可灵:提示词大全整理
· Suno音乐新手指南(手把手完整版教程)
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 中文开源OCR框架对比及介绍
· 详解 Diffusion (扩散) 模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
M3E 可能是最强大的开源中文嵌入模型
M3E的数据集,模型,
训
练
脚本,评测框架都开源。
开源模型
大模型
天塌了,Scaling Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
报道提到,GPT 开发速度放缓的部分原因是用于预
训
练
的文本和数据供应减少(预
训
练
有助于 LLM 理解概念之间的关系,从而解决起草内容或调试代码等任务)。
Scaling
Law
AI大模型
微调
2024!深入了解 大语言模型(LLM)微调方法(总结)
「2、模型选择」:在从头开始
训
练
模型和修改现有模型之间做出选择。
大模型
微调
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
我们的模型
训
练
过程包括两个阶段:多任务预
训
练
和监督微调。
大模型
语音
【进阶】-文生图术语解释
,但炸炉前的日志插件可以提取二次
训
练
废丹 指完全没有
训
练
成功 美学/ext Aesthetic
文生图
Stable Diffusion
Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
训
练
方式非常简单,只需要提供 5 到 20 张肖像图片(最好是半身照片且尽量不要佩戴眼镜),20 分钟左右,Stable diffusion 就可以
训
练
好数字分身。
SD
文生图
写真照
一键部署本地“妙鸭”,证件照,写真照,模特换装全部搞定!
#02
训
练
我们先来看它的第一个功能——
训
练
。
妙鸭
文生图
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained Transformer(生成式预
训
练
转换器)是一种基于互联网的、可用数据来
训
练
的、文本生成的深度学习模型。
大模型
人工智能
开源
开源版妙鸭相机来了,无限出个人写真图(阿里达摩院出品)
FaceChain支持在gradio的界面中使用模型
训
练
和推理能力,也支持资深开发者使用python脚本进行
训
练
推理。
妙鸭相机
Transformer
图解 Transformer——功能概览
四、Transformer
训
练
过程 Transformer 的
训
练
和推理有一些细微差别。
Transformer
大模型
图解
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
如果想进一步提升模型效果:还可以使用大规模业务数据,对预
训
练
模型进行 Domain-adaptive Pretraining,
训
练
完以后得到预
训
练
模型,再进行无监督的 SimCSE。
开源模型
LLM
2023年LLM如何入门?请看这篇综述!
A:确实,那近几年的话,研究人员提出了预
训
练
语言模型PLM,通过对大规模语料库进行Transformer模型的预
训
练
,展现了解决各种NLP任务的强大能力。
大模型
大模型
大模型套壳祛魅:质疑套壳,理解套壳
预
训
练
是大模型
训
练
最核心的环节,通过把大量的文本信息压缩到模型中,就像一个学生寒窗苦读的过程,来让模型具备世界知识。
大模型
套壳
数字人
数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
WebUI 工具: 集成工具包括声音伴奏分离、自动
训
练
集分割、中文自动语音识别(ASR)和文本标注,协助初学者创建
训
练
数据集和
数字人
声音克隆
GPT-SoVITS
大模型
通俗解读大模型微调(Fine Tuning)
为什么要对大模型进行微调 通常,要对大模型进行微调,有以下一些原因: 第一个原因是,因为大模型的参数量非常大,
训
练
成本非常高,每家公司都去从头
训
练
一个自己的大模型,这个事情的性价比非常低; 第二个原因是
大模型
微调
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100