首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微
信中和 AI 进行对话
1.注册 FastGPT:cloud.fastgpt.in 2.进入「应用」,新建1 个机器人,选择“简易模板”; 3.先不用进行“高级编排”来创建工作流,这一步放在把机器人
调
通之后再做; 4.点击
微信
对话
万字长文-大语言模型指令
调
优综述
4.6 GPT-4-
LLM
GPT-4-
LLM
(7B) (Peng et al., 2023)是在GPT-4 (OpenAI,2023) 生成的指令数据集上通过
微
调
LLaMA (7B)(Touvron
大语言模型
开源
Chinese-
LLM
开源中文大语言模型合集
(ChatGLM, MOSS, LLaMA)进行二次
微
调
的语言模型,指令
微
调
数据集等。
大模型
中文
LLM
Byzer-
LLM
快速体验智谱 GLM-4
Byzer-
LLM
可以让用户用一套接口就可以部署和使用市面上主流的开源和SaaS版本大模型, 之前以Qwen 写过一篇,可以看这里:Byzer-
LLM
支持同时开源和SaaS版通义千问 今天我们升级了一个
Byzer-LLM
GLM-4
大模型
AI大模型
LLM
可以帮助企业做什么?
毕竟,自从ChatGPT,这个大模型
LLM
的领军模型惊艳亮相以来,我感觉它几乎可以应付一切。
大模型
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
llama3的
微
调
!
MoE
专家混合模型
大模型
llm
-action:让天下没有难学的大模型
从6B到65B,从全量
微
调
到高效
微
调
(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的强化学习)。
大模型
LLM
LLM
ChatPDF |
LLM
文档对话 | pdf解析关键问题
笔者最近在探索ChatPDF和ChatDoc等方案的思路,也就是用
LLM
实现文档助手。
大模型
爬虫
微
信搜狗爬虫WechatSogou - 从
微
信公众号获取文章的利器
然而,要从
微
信公众号中获取大量的文章数据并不容易。
WechatSogou
微信
搜狗
LLM
收藏!万字长文聊聊
LLM
Agents的现状,问题与未来
SFT即监督
微
调
(Supervised Fine-Tuning)。
LLM
Agents
Stable Diffusion
新手向,Stable Diffusion API 接口,在本地
调
用
本文介绍了如何设置Stable Diffusion,开放其API 接口,能够让程序在本地调用
SD
文生图
ComfyUI
使用python
调
用comfyui-api,实现出图自由
使用python
调
用comfyui-api,实现出图自由 1.
comfyui
工作流
大模型
基于大模型(
LLM
)的Agent 应用开发
交互主要有 三种类型:协作(Cooperation)、协
调
(Coordination)和协商 (Negotiation)。
大模型
Agent
RAG
LangChain:
LLM
应用聚焦的两大方向,RAG 和 Agents
两部分,说明这两个月以来,业界对落地的思考慢慢收敛到了这两部分,尤其是 RAG(RetrievalAugmentedGeneration),其实算是一个比较新的词,接下来我们分别从这两个维度来看下最近
LLM
大模型
LLM
自己电脑上跑大语言模型(
LLM
)要多少内存?
在本地电脑上运行大型语言模型(
LLM
),需要考虑的关键因素之一就是电脑的内存够不够。
大语言模型
运行
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100