首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 盘点字节跳动最新的AI应用
· 微软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
· 好看的图片不知道怎么写提示词?用AI读出来
· 一键复用!Stable Diffusion WebUI 神仙插件 LightFlow
· ComfyUI | 这么入门就顺了,硬入疼的是自己
· 超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和
7B
这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
但是,我们再估算一下MetaAI发布的LLaMA2-
7B
的结果,LaMA2-
7B
模型在不同精度下的训练和推理的显存需求结果如下: 而根据网络上大家讨论的内容, llama-2-
7b
-chat载入大概需要
大模型
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
例如,在使用 oasst1 数据集微调 Llama2-
7B
时,数据拼接后的训练时长仅为普通训练的 50% 。
大模型
Github
8月份最火的 5 个 GitHub 项目
开源地址:https://github.com/binjie09/one-api 05 通义千问 基于 ModelScope 以及 Hugging Face均开源的 Qwen-
7B
系列模型
下载
大模型
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑
性能方面,Stable Code 3B规模比CodeLLaMA
7B
小60%,但性能却大差不差。
Stability
AI
大模型
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并公开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(
7b
)
开源模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
按照模型参数量,LLaMA模型有
7B
、13B、33B、65B这四个不同参数规模的模型版本。
大模型
微调
训练
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
上图表示有三名专家,示意如何将 Mistral-
7B
转换为具有稀疏 MoE 层(前馈网络 1、2 、 3)和路由 MoE!
MoE
专家混合模型
阿里
本地运行140亿参数,阿里千问玩起来!Qwen+Win11+3060
7B
大概在一个月前发布,这次发布了14B版本。
大模型
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
此前我们也使用Firefly项目对Baichuan-
7B
进行指令微调,并且发布了firefly-baichuan-
7b
模型,详见文章:Firefly|百川baichuan-
7B
实测,QLoRA+百万指令数据微调
大模型
微调
开源
开源大语言模型完整列表
开源 LLM 通义千问-
7B
—— 基于 Transformer 的大语言模型 通义千问 -
7B
(Qwen-
7B
) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。
开源模型
大语言模型
baichuan2 有什么好的 深挖论文中涉及的知识点
的性能比 Baichuan 1-
7B
高出近 30%。
大模型
科大讯飞
哈工大科大讯飞联合推出中文LLaMA-2 & Alpaca-2大语言模型
, text-generation-webui, LangChain, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
训练
大模型
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
python环境建议3.9+ pip install -r requirements.txt 其次安装 lfs 方便本地下载 LLaMa 大模型 git lfs install # 下载
7B
LLaMA
大模型
CLiB中文大模型能力评测榜单(持续更新)
最近更新 [2023/7/2] 发布v1.3版本评测榜单 新增3个大模型:360智脑、MOSS-003-SFT、AquilaChat-
7B
讯飞星火更新为最新的v1.5
大模型
人工智能评测
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100