首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· 零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
· 拒绝996,想出海赚美元?这7个GPT方案绝对靠谱!
· 大模型微调数据选择和构造技巧
· 深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
· 阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
· Prompt屠龙术-大厂prompt工程指南解析提炼
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型套壳祛魅:质疑套壳,理解套壳
微调通常分为两个步骤——SFT(有监督微调)+
RLHF
(人类反馈强化学习),其中
RLHF
是 OpenAI 的创新设计,它决定了模型能够与人类意图与价值观对齐,是训练一个可靠的对话模型不可或缺的环节。
大模型
套壳
大模型
HalluQA: 测测中文大模型有没有一本正经胡说八道
这类问题往往是SFT或者
RLHF
容易被忽视的问题,因为这些问题本身可能存在矛盾,不像是通常会出现的用户Query(例如“弱智吧”问题之类的段子),因此很容易在alignment阶段被忽视。
大模型
中文大模型
幻觉
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
这里需要指出后续
RLHF
也很重要,我罗列在这里,抛砖引玉。
大模型
大模型
大模型实践总结
大模型实践文章 下面是最近大模型实践过程中的一些文章,配套代码放置在GitHub:llm-action LLM训练: LLM 预训练/微调/
RLHF
大模型
训练
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(上)
此外,Stability.AI还发布了基于
RLHF
的开源LLM聊天机器人——StableVicuna。
大模型
LLM
2023年LLM如何入门?请看这篇综述!
2.3
RLHF
(reinforcement learning from human feedback)三阶段
RLHF
是使用强化学习算法来对模型进行微调,以使其更好地适应特定的任务或应用场景。
大模型
大模型
通俗解读大模型微调(Fine Tuning)
一个是监督式微调SFT(Supervised Fine Tuning) ,这个方案主要是用人工标注的数据,用传统机器学习中监督学习的方法,对大模型进行微调; 一个是基于人类反馈的强化学习微调
RLHF
大模型
微调
教程
吴恩达Prompt教程之总结图解
首先需要从大量文本数据中训练处一个Base LLM,随后使用指令和比较好的输入输出去进一步训练(微调、优化)LLM,在训练过程中,输入和输出都是作为指令给到LLM,要求Base LLM去遵循这些指令,然后,使用
RLHF
prompt
教程
吴恩达
RAG
RAG 修炼手册|一文讲透 RAG 背后的技术
这强大的功能背后,是从人类反馈中强化学习(Reinforcement Learning from Human Feedback,
RLHF
)等技术的支持,通过这些技术使得它和人类的对话更让人满意
RAG
Embedding
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
此外,它还通过引入基于对战排序反馈的通用强化学习(
RLHF
),模型的泛化能力得到进一步强化。
GLM模型
智谱
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
以第三点为例,读者可以根据用户的反馈数据,训练一个reward model作为评价者,运行automatic prompt engineering框架,优化现有的Prompt,这一点和
RLHF
有异曲同工之处
prompt
大模型
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
与 Vicuna 相比,MEGALODON 在 MT-Bench 上表现出优越的性能,并且与 LLAMA2-Chat 相当,而后者利用
RLHF
进行了进一步的对齐微调。
Meta
长文本
大模型
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
这个模型已经经过了⼴泛的调优,使⽤了多轮的
RLHF
。
NEFTune
大语言模型
大模型
预训练对话大模型深度解读
基于人类反馈的强化学习(
RLHF
) 从人类反馈中学习 通过人来的偏好训练奖励模型,使用PPO算法优化策略模型(即生成模型) 将模型的输出结果对齐至人类偏好
大模型
金融行业的开源AI大模型
FinGPT提供了多种数据集和多任务金融LLM模型,用于情感分析、金融关系提取和问答等任务,并能够有效、低成本地适应金融领域的动态变化,并利用“人类反馈强化学习(
RLHF
)”技术进行个性化学习。
开源
大模型
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100