首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 人工智能训练的灾难性遗忘以及解决方案
· SoFlu软件机器人
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· SD入门教程二:文生图基础用法(提示词)
· 垂直领域大模型的思考
· 微信为什么使用 SQLite 保存聊天记录!
· ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
· 令人惊艳的开源图标生成AI模型:ChartLlama (南洋理&腾讯)
· 惊艳!2.77亿参数锻造出Agent+GPT-4V模型组合,领航AI领航机器人、游戏、医疗革新,通用智能时代你准备好了吗?
· 深入探讨:Agent全自动写作长篇小说技术原理解析
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
工具
惊艳推荐!8款好用又免费的文本转语音TTS工具
这种技术使用深度神经网络模型来合成语音,能够更自然地模拟人类的发音和语
调
,从而产生更加流畅和自然的语音输出。
TTS
Maker
语音
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
2)它由于在预训练和
微
调
过程中学到了大量的知识,可谓是无所谓不知。
LLM
大模型
大模型时代-行业落地的再思考
前者由于改变了模型的权重,可以称作是训练(
微
调
)了一个行业大模型,后者则基本只能认为是通用大模型的应用了,因为模型还是那个模型。
大模型
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
1 pip install xtuner 2 # 不破坏 Chat 模型对话模版,继续增量指令
微
调
3 xtuner train internlm_chat_7b_qlora_oasst1
大模型
大模型
大模型压缩首篇综述来啦~
傅等人发现了语言模型的多维能力之间的权衡,并提出了
微
调
的指令
调
整模型。
大模型
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
2018年6月,openAI发布了第一代GPT(Generative Pre-Training),基于Transformer Decoder的改进,有效地证明了在自然语言处理领域使用预训练+
微
调
方法的有效性
大模型
RAG
一文看懂RAG:大语言模型落地应用的未来
做大模型的人都知道
微
调
成本是十分高的,而RAG检索能力会消耗更低的成本并且收获比
微
调
更好的效果!
rag
检索增强
LLM
2023年LLM如何入门?请看这篇综述!
PLM通常使用自编码器、Transformer等模型结构,在大规模数据上进行预训练,并通过
微
调
FT等方式适应不同的下游任务。
大模型
如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
我们没有进行
微
调
,而是结合使用提示链接和预处理/后处理来将幻觉率降低一个数量级,但它确实需要 3-4 倍的 OpenAI
调
用次数。
大模型
大模型
如何下载及使用通义千问7B开源大模型
pipeline_ins(text) print(result['text']) SFT数据集链接和下载 这里使用魔搭上开源的数据集finance_en(包含68912条金融数据)作为
微
调
数据集
通义千问
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
P-Tuning v2 将需要
微
调
的参数量减少到原来的 0.1%,再通过模型量化、Gradient Checkpoint 等方法,最低只需要 7GB 显存即可运行。
ChatGLM2-6B
用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
通过应用蒸馏监督
微
调
(distilled supervised fine-tuning, dSFT)和蒸馏直接偏好优化(distilled direct preference optimization,
小型语言模型
Zephyr-7B
大模型
EduChat:教育行业垂直领域大模型
通过在教育语料库上进行预训练来学习领域特定的知识,并通过在设计的系统提示和指令上进行
微
调
来刺激各种技能的使用。
教育
大模型
垂直领域
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
上下文学习&COT能力 上下文学习(ICL)是指不需要
微
调
,只需要少数几个样例作为示例,就能在未知任务上取得不错的效果(提升few-shot能力)。
大模型
大模型
CodeFuse开源编程大模型-您的开源编程助手
代码框架支持多任务
微
调
,包括代码生成、翻译、测试用例生成等任务。
大模型
AI编程
<
...
11
12
13
14
15
16
17
18
19
20
...
>
1
2
4
5
6
7
8
9
100