首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 10秒换脸,一张图片够了!SD Roop插件教程
· Stable Diffusion|提示词高阶用法(二)双人同图
· 字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
· GenColor.ai
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 6个最佳开源TTS引擎
· 高效选择:Ollama与LM Studio深度对比
· LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
· GPU 性能(数据表)快速参考
· 大模型微调数据选择和构造技巧
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Baichuan-13B 保姆级
微
调
范例
本范例
微
调
的模型是Baichuan-13B-Chat,我们使用非常简单的,外卖评论数据集来实施
微
调
,对一段外卖评论区分是好评还是差评。
开源模型
LLM
2024!深入了解 大语言模型(LLM)
微
调
方法(总结)
其中主要包括什么是大模型
微
调
、什么时候需要大模型
微
调
、大模型
微
调
方法总结、大模型
微
调
最佳实践等。
大模型
微调
ChatGLM
手把手带你
微
调
一个自己的 ChatGLM2-6B 模型
snapshots/0ecfe0b857efd00836a4851b3dd2ed04bd4b197f 准备数据集 我们这次训练知识简单做一下 demo,所以不进行大量数据的训练,只使用他原有的文件
调
整下认知即可
ChatGLM2-6B
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效
微
调
实践
下图是LLaMA-7B进行高效参数
微
调
和全量
微
调
的损失变化曲线。
大模型
微调
训练
大模型
大模型高效
微
调
:🤗 PEFT 使用案例
PEFT介绍 🤗 PEFT(Parameter-Efficient Fine-Tuning,参数高效
微
调
),是一个用于在不
微
调
所有模型参数的情况下,高效地将预训练语言模型(PLM)适应到各种下游应用的库
大模型
大模型
微
调
、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍
微
调
(Fine-tunning) 语言模型的参数需要一起参与梯度更新 轻量
微
调
(lightweight fine-tunning) 冻结了大部分预训练参数,仅添加任务层,语言模型层参数不变
训练
微调
大模型
大模型
微
调
数据选择和构造技巧
大模型场景
微
调
里面,最关键地的一个是问题是: 选择什么样的数据
微
调
?
大模型
微调
一文讲明白什么是预训练、
微
调
和上下文学习
这些模型通过预训练、
微
调
和上下文学习的组合来学习。
大模型
训练
大模型
【手把手带你
微
调
Llama3】 改变大模型的自我认知,单卡就能训
微
调
Llama3的自我认知后 当你问Llama3中文问题: “你叫什么名字?”
Llama3
对话问答模型
NEFTune:在Embedding中加入噪⾳提⾼指令
微
调
效果!
通常情况下,我们使⽤更好的基础模型、更⼤的数据集⼤⼩以及更⾼质量的数据来提升⼤型语⾔模型(LLM)
微
调
性能
NEFTune
大语言模型
微
调
大型语言模型-核心思想和方法介绍
上面提到的快速
调
整方法提供了一种比参数
微
调
更节省资源的替代方法。
大模型
训练
大模型
大模型
微
调
经验汇总---LLM finetuning 踩坑经验之谈
但我们没有 GPU 资源, 我们可以选择开源的中文模型直接做
微
调
。
大模型
人工智能
大模型
微
调
百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
本文旨在帮助读者快速掌握使用Firefly项目
微
调
Baichuan-13B模型,该教程同样适用于
微
调
llama、ziya、bloom等模型,并且Firefly项目正在逐步适配更多开源大模型,包括InternLM
大模型
微调
大模型
复旦开源中文医疗大模型,基于百川
微
调
,模型和数据集都公开
为了满足患者的需求,我们采取了一项创新的举措,通过人工筛选,构建了符合人类偏好的高质量小规模行为
微
调
样本。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效
微
调
之前尝试了基于LLaMA使用LoRA进行参数高效
微
调
,有被惊艳到。
大模型
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100