首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-
7B
的结果,LaMA2-
7B
模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容, llama-2-
7b
-chat载入大概需要
大模型
开源
国内外开源大语言模型一览表
百川 Baichuan-
7B
https://github.com/baichuan-inc/baichuan-
7B
https://huggingface.co/baichuan-inc
大模型
Github
8月份最火的 5 个 GitHub 项目
开源地址:https://github.com/binjie09/one-api 05 通义千问 基于 ModelScope 以及 Hugging Face均开源的 Qwen-
7B
系列模型
下载
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
例如,在使用 oasst1 数据集微调 Llama2-
7B
时,数据拼接后的训练时长仅为普通训练的 50% 。
大模型
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
上图表示有三名专家,示意如何将 Mistral-
7B
转换为具有稀疏 MoE 层(前馈网络 1、2 、 3)和路由 MoE!
MoE
专家混合模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(
7b
)
开源模型
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
性能方面,Stable Code 3B规模比CodeLLaMA
7B
小60%,但性能却大差不差。
Stability
AI
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
微调
训练
baichuan2 有什么好的 深挖论文中涉及的知识点
的性能比 Baichuan 1-
7B
高出近 30%。
大模型
阿里
本地运行140亿参数,阿里千问玩起来!Qwen+Win11+3060
7B
大概在一个月前发布,这次发布了14B版本。
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
此前我们也使用Firefly项目对Baichuan-
7B
进行指令微调,并且发布了firefly-baichuan-
7b
模型,详见文章:Firefly|百川baichuan-
7B
实测,QLoRA+百万指令数据微调
大模型
微调
开源
开源大语言模型完整列表
开源 LLM 通义千问-
7B
—— 基于 Transformer 的大语言模型 通义千问 -
7B
(Qwen-
7B
) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。
开源模型
大语言模型
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
, text-generation-webui, LangChain, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
训练
大模型
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
python环境建议3.9+ pip install -r requirements.txt 其次安装 lfs 方便本地下载 LLaMa 大模型 git lfs install # 下载
7B
LLaMA
大模型
CLiB中文大模型能力评测榜单(持续更新)
最近更新 [2023/7/2] 发布v1.3版本评测榜单 新增3个大模型:360智脑、MOSS-003-SFT、AquilaChat-
7B
讯飞星火更新为最新的v1.5
大模型
人工智能评测
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100