首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· GenColor.ai
· 为你推荐开源项目:Meridian——专属个人情报站!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI换脸工具:facefusion使用心得
· 变天了,AI可以一键生成中文海报了......
· 详解Stable Diffusion提示词prompt语法
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 企业数字化转型的“阿里阿德涅之线”在哪?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG超参数
调
优食用指南
目前构建
LLM
应用程序存在一个巨大的问题,那就是需要
调
整大量的参数,而且远远超出了提示范围,例如分块、检索策略、元数据等。
rag
大模型
LLM
个人从零预训练1B
LLM
心路历程
不过即使我在预训练里加了这部分数据,效果也是大概率比不过在qwen、llama这种大机构发布的模型基础上进行
微
调
的。
LLM
训练
微
信中和 AI 进行对话
1.注册 FastGPT:cloud.fastgpt.in 2.进入「应用」,新建1 个机器人,选择“简易模板”; 3.先不用进行“高级编排”来创建工作流,这一步放在把机器人
调
通之后再做; 4.点击
微信
对话
万字长文-大语言模型指令
调
优综述
4.6 GPT-4-
LLM
GPT-4-
LLM
(7B) (Peng et al., 2023)是在GPT-4 (OpenAI,2023) 生成的指令数据集上通过
微
调
LLaMA (7B)(Touvron
大语言模型
开源
Chinese-
LLM
开源中文大语言模型合集
(ChatGLM, MOSS, LLaMA)进行二次
微
调
的语言模型,指令
微
调
数据集等。
大模型
中文
大模型
AI大模型
LLM
可以帮助企业做什么?
毕竟,自从ChatGPT,这个大模型
LLM
的领军模型惊艳亮相以来,我感觉它几乎可以应付一切。
大模型
大模型
llm
-action:让天下没有难学的大模型
从6B到65B,从全量
微
调
到高效
微
调
(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的强化学习)。
大模型
LLM
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
llama3的
微
调
!
MoE
专家混合模型
LLM
ChatPDF |
LLM
文档对话 | pdf解析关键问题
笔者最近在探索ChatPDF和ChatDoc等方案的思路,也就是用
LLM
实现文档助手。
大模型
大模型
基于大模型(
LLM
)的Agent 应用开发
交互主要有 三种类型:协作(Cooperation)、协
调
(Coordination)和协商 (Negotiation)。
大模型
Agent
爬虫
微
信搜狗爬虫WechatSogou - 从
微
信公众号获取文章的利器
然而,要从
微
信公众号中获取大量的文章数据并不容易。
WechatSogou
微信
搜狗
Stable Diffusion
新手向,Stable Diffusion API 接口,在本地
调
用
本文介绍了如何设置Stable Diffusion,开放其API 接口,能够让程序在本地调用
SD
文生图
ComfyUI
使用python
调
用comfyui-api,实现出图自由
使用python
调
用comfyui-api,实现出图自由 1.
comfyui
工作流
RAG
LangChain:
LLM
应用聚焦的两大方向,RAG 和 Agents
两部分,说明这两个月以来,业界对落地的思考慢慢收敛到了这两部分,尤其是 RAG(RetrievalAugmentedGeneration),其实算是一个比较新的词,接下来我们分别从这两个维度来看下最近
LLM
大模型
LLM
自己电脑上跑大语言模型(
LLM
)要多少内存?
在本地电脑上运行大型语言模型(
LLM
),需要考虑的关键因素之一就是电脑的内存够不够。
大语言模型
运行
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100