首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 一个专业级 AI 聊天浏览器,开源了!
· 用so-vits-svc-4.1进行音色转换的极简教程!
· 社区供稿|GPT-4 与国产模型,大!横!评!
· 造梦师手记:C站最受欢迎的大模型推出了SFW版
· 开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex
· ComfyUI 基础教程(一)环境部署和插件安装
· CodeGeeX
· Github Copilot
· Xmind Copilot
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
万字长文,AI大模型的应用实践总结
大语言模型 目前业界可以下载到的一些大语言模型: · ChatGLM-
6B
/
ChatGLM2
-
6B
:清华开源的中英双语的对话语言模型。
大模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
九、多模态大模型MiniGPT-4 十、StabilityAI发布的StableLM和StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-
6B
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
1.3 ChatGLM-
6B
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
训练
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
Qwen7b微调保姆级教程
模型进行数据预处理方法统一管理的方法,因此本范例适用于非常多不同的开源LLM模型,包括 Qwen-7b-Chat,Llama-13b-chat, BaiChuan2-13b-chat, Intern-7b-chat,
ChatGLM2
Qwen7b
大模型
大模型
备案通过且面向公众开放的国产精品大模型汇总,附访问链接
● 访问地址:https://www.doubao.com/ No.4
ChatGLM2
大模型 ● 产品名:智谱清言 ● 出品方:智谱AI ● 简介:智谱清言基于智谱AI
大模型
国产
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
ChatGLM3-
6B
是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-
6B
引入了如下特性: 更强大的基础模型:ChatGLM3
ChatGLM3
大模型
Yi技术报告细节分享
模型采用Transformer-Decoder结构,采用llama的代码实现,修改如下: o 注意力机制:Yi-
6B
和34B版本均采用Grouped-Query Attention
Yi模型
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
Firefly项目微调Baichuan-13B模型,该教程同样适用于微调llama、ziya、bloom等模型,并且Firefly项目正在逐步适配更多开源大模型,包括InternLM、CPM-bee、
ChatGLM2
大模型
微调
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
更全面的开源序列,除了对话模型 ChatGLM3-
6B
外,还开源了基础模型 ChatGLM3-
6B
-Base、长文本对话模型 ChatGLM3-
大模型
ChatGLM
ChatGLM
chatglm3基础模型多轮对话微调
base模型 https://huggingface.co/THUDM/chatglm3-
6b
-base 由于模型较大,建议离线下载后放在代码目录,以".
ChatGLM
微调
开源
Falcon 180B 开源影响了谁?
百川智能的Baichuan2-7B、Baichuan2-13B、Baichuan2-13B-Chat与其4bit量化版本;智源的悟道3.0中的悟道・天鹰大语言模型;智谱AI的ChatGLM-
6B
大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-
6B
, LLaMA-7B模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
大模型
大模型实践总结
大语言模型 目前业界可以下载到的一些大语言模型: ChatGLM-
6B
:中英双语的对话语言模型。
大模型
训练
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
下面我们使用这个工具估算一下清华大学ChatGLM-
6B
模型的结果(第一代的ChatGLM-
6B
模型信息卡地址:https://www.datalearner.com/ai-models
大模型
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100