首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
使用自己的数据训练清华ChatGLM2-
6B
模型
nbsp;全局切换 3.10.4 版本 pyenv global 3.10.4 下载源码 https://github.com/THUDM/ChatGLM2-
6B
ChatGLM2-6B
ChatGLM
从0到1基于ChatGLM-
6B
使用LoRA进行参数高效微调
因此,它的中文能力很弱,即使对其进行有监督的微调,同等参数规模下,它的中文能力也是要弱于bloom-7b1、chatglm-
6b
等。
大模型
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-
6B
模型——Windows+6GB显卡版本和CPU版本的本地部署
ChatGLM-
6B
使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。
提示词
prompt
chatgpt
开源
开源大语言模型完整列表
开源中文 LLM ChatGLM-
6B
—— 双语对话语言模型 ChatGLM-
6B
是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。
开源模型
大语言模型
大模型
llm-action:让天下没有难学的大模型
从
6B
到65B,从全量微调到高效微调(LoRA,QLoRA,P-Tuning v2),再到RLHF(基于人工反馈的强化学习)。
大模型
LLM
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
ChatGLM3
采用了智谱 AI 独创的多阶段增强预训练方法、集成了自研的 AgentTuning 技术,并瞄向 GPT-4V 做技术升级。
智谱
AI
开源
国内外开源大语言模型一览表
ChatGLM-
6B
https://github.com/THUDM/ChatGLM-
6B
https://github.com/THUDM/ChatGLM-
6B
/tree/main/
大模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们还是坚持用国产大模型(如Baichuan2-13B、
ChatGLM3
-
6B
和QWen-14B等),毕竟主要服务的还是国内客户,加上现在接触的多数客户其实都有私有化部署的需求。
RAG
检索增强
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
九、多模态大模型MiniGPT-4 十、StabilityAI发布的StableLM和StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-
6B
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
1.3 ChatGLM-
6B
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
训练
大模型
姜子牙大模型系列 | 为知识检索而生,Ziya-Reader开源,多个长文本中文任务第一
我们在权威数据集,LongBench多文档问答任务中测试了GPT3.5-turbo-16k和ChatGLM2-
6B
-32k[2]。
大模型
Ziya
Yi技术报告细节分享
模型采用Transformer-Decoder结构,采用llama的代码实现,修改如下: o 注意力机制:Yi-
6B
和34B版本均采用Grouped-Query Attention
Yi模型
大模型
CodeGeeX2来了!效果超LLaMA2-70B
很多时候对于公司内部业务代码开发场景,由于代码安全性,很难使用 Github Copilot 去 AI 生成,发现清华发布了「CodeGeeX2」,基于 ChatGLM2-
6B
基座模型
CodeGeeX2
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-
6B
, LLaMA-7B模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
开源
最新最全的开源中文大语言模型列表
模型 1.1 文本LLM模型 ChatGLM: 地址:https://github.com/THUDM/ChatGLM-
6B
大模型
<
1
2
3
4
5
>
1
2
4
5
6
7
8
9
100