首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· PPT又又有新突破了!智谱AI代码流造PPT
· Suno音乐新手指南(手把手完整版教程)
· ComfyUI安装及生成第一张图
· 会“追问”的Agent,大模型知识库另类实践
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 聊聊我对AI Agents技术的一些看法
· Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
Qwen7b微调保姆级教程
前方干货预警:这可能是你能够找到的,最容易理解,最容易跑通的,适用于各种开源
LLM
模型的,同时支持多轮和单轮对话数据集的大模型高效微调范例。
Qwen7b
大模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
在快速发展的人工智能领域,高效且有效地利用大型语言模型 (LLM) 变得越来越重要。但是我们可以通过许多不同的方式使用大型语言模型,如果您刚开始,这可能会让人不知所措。本质上,我们可以通过两种主要方式将预训练的大型语言模型用于新任务:上下文学习(in-context learning)和微调(finetuning)。在本文中,我们将介绍介绍微调 LLM 的各种方法。
大模型
微调
RAG
RAG 修炼手册|一文讲透 RAG 背后的技术
今天我们继续剖析 RAG,将为大家详细介绍 RAG 背后的例如 Embedding、Transformer、BERT、
LLM
等技术的发展历程和基本原理,以及它们是如何应用的。
RAG
Embedding
手把手教你认识学会LangChain
什么LangChain LangChain:一个让你的
LLM
变得更强大的开源
框
架
LangChain六大主要领域 管理和优化prompt。
langchain
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源
LLM
的finetune教程~ ChatGLM2-6b是清华开源的小尺寸
LLM
,只需要一块普通的显卡(32G较稳妥)即可推理和微调
开源模型
LLM
从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
这种方法优点能够将任意
LLM
的思维组合在一起,提炼出整个思维图内容。
大模型
微调
一文讲明白什么是预训练、微调和上下文学习
Transformer
架
构:预训练通常采用基于 Transformer 的
架
构,因为这种
架
构擅长捕获远程依赖关系和上下文信息。
大模型
训练
开源
3 个令人惊艳的 AI 文档神器,开源了!
作为当下较为知名的 AI
框
架
,LangChain 可以帮助开发者轻松构建各种 AI/
LLM
应用和聊天机器人。
大模型
开源模型
Agent
Agent四大范式 | 综述:全面理解Agent工作原理
它通过几个构建的路径引导
LLM
对复杂问题进行推理,利用
LLM
的推理能力进行任务拆解。
Agent
大语言模型
PDFTriage:面向长篇结构化文档的问答
大型语言模型(
LLM
)在文档问答(QA)中存在一个问题,那就是当文档无法适应
LLM
的小范围上下文长度时。
大语言模型
PDF
文档
金融
金融领域Prompt工程方法浅析
三、Prompt设计原则及提示
框
架
如上述所言因金融领域具有其特殊性,我们提出Prompt设计的三大原则: 1、分层拆解原则
prompt
大模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (
LLM
),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(7b)
开源模型
Sora
解读OpenAI Sora文生视频技术原理
Diffusion Transformer (DiT) 因为引入Transformer 做多层多头注意力和归一化,因而引入了降维和压缩,diffusion方式下的底片信息提取过程,原理与
LLM
的重整化无异
sora
RAG
2023检索增强生成技术(RAG)研究进展
诸如 LangChain 和 LlamaIndex 等工具和
框
架
投入了大量资源来研究和实现RAG技术。
RAG
检索增强
Transformer
图解 Transformer——功能概览
在这个纪元中,Transformer
架
构扮演着至关重要的角色。
Transformer
大模型
图解
<
...
11
12
13
14
15
16
17
18
19
20
...
>
1
2
4
5
6
7
8
9
100