首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· PPT又又有新突破了!智谱AI代码流造PPT
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 如何最简单、通俗地理解Transformer?
· 使用ChatGPT润色出高品质文章!
· 17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 免费的文本生成视频解决方案:AnimateDiff下载-可用于StableDiffusion的webui以及ComfyUI
· AI创作 |如何通过GPT进行漫画视频的故事改写
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
万字长文,AI大模型的应用实践总结
大语言模型 目前业界可以下载到的一些大语言模型: · ChatGLM-
6B
/
ChatGLM2
-
6B
:清华开源的中英双语的对话语言模型。
大模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
九、多模态大模型MiniGPT-4 十、StabilityAI发布的StableLM和StableVicuna 十一、开源可商用的MPT系列 十二、清华大学的ChatGLM-
6B
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
1.3 ChatGLM-
6B
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
训练
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-
6B
是清华大学提出的支持中英双语问答的对话语言模型。
大模型
微调
Qwen7b微调保姆级教程
模型进行数据预处理方法统一管理的方法,因此本范例适用于非常多不同的开源LLM模型,包括 Qwen-7b-Chat,Llama-13b-chat, BaiChuan2-13b-chat, Intern-7b-chat,
ChatGLM2
Qwen7b
大模型
大模型
备案通过且面向公众开放的国产精品大模型汇总,附访问链接
● 访问地址:https://www.doubao.com/ No.4
ChatGLM2
大模型 ● 产品名:智谱清言 ● 出品方:智谱AI ● 简介:智谱清言基于智谱AI
大模型
国产
Yi技术报告细节分享
模型采用Transformer-Decoder结构,采用llama的代码实现,修改如下: o 注意力机制:Yi-
6B
和34B版本均采用Grouped-Query Attention
Yi模型
大模型
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
ChatGLM3-
6B
是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-
6B
引入了如下特性: 更强大的基础模型:ChatGLM3
ChatGLM3
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
Firefly项目微调Baichuan-13B模型,该教程同样适用于微调llama、ziya、bloom等模型,并且Firefly项目正在逐步适配更多开源大模型,包括InternLM、CPM-bee、
ChatGLM2
大模型
微调
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
更全面的开源序列,除了对话模型 ChatGLM3-
6B
外,还开源了基础模型 ChatGLM3-
6B
-Base、长文本对话模型 ChatGLM3-
大模型
ChatGLM
ChatGLM
chatglm3基础模型多轮对话微调
base模型 https://huggingface.co/THUDM/chatglm3-
6b
-base 由于模型较大,建议离线下载后放在代码目录,以".
ChatGLM
微调
开源
Falcon 180B 开源影响了谁?
百川智能的Baichuan2-7B、Baichuan2-13B、Baichuan2-13B-Chat与其4bit量化版本;智源的悟道3.0中的悟道・天鹰大语言模型;智谱AI的ChatGLM-
6B
大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
ChatGLM-
6B
, LLaMA-7B模型分别是60亿参数量和70亿参数量的大模型,基本可以处理所有NLP任务,效果好,但大模型部署成本高,需要大显存的GPU,并且预测速度慢,V100都需要1秒一条。
大模型
大模型
大模型实践总结
大语言模型 目前业界可以下载到的一些大语言模型: ChatGLM-
6B
:中英双语的对话语言模型。
大模型
训练
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
下面我们使用这个工具估算一下清华大学ChatGLM-
6B
模型的结果(第一代的ChatGLM-
6B
模型信息卡地址:https://www.datalearner.com/ai-models
大模型
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100