首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 豆包MarsCode——免费AI编程助手
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 保姆级教程:Coze 打工你躺平
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· MCP服务介绍及应用场景报告-来自Manus
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· 技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 大语言模型微调:定制自己的微调数据集
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
该项工作的作者提出 Llama 2 模型:这是经过一系列 预训练和微调的大语言模型 (LLM),其参数规模从
7B
亿到 70B 不等。
大模型
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5B、Qwen2-1.5B、Qwen2-
7B
、Qwen2-57B-A14B 和 Qwen2-72B),这些模型在中文和英文基础上增加了 27 种语言的高质量数据
qwen
千问
开源
大模型
ollama本地部署自然语言大模型
ensp; 安装命令 发布组织 Llama 2
7B
ollama
语言大模型
部署
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL以通义千问70亿参数模型Qwen-
7B
为基座语言模型研发,支持图文输入,具备多模态信息理解能力。
大模型
教程
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
能力超
7B
!
Qwen1.5-MoE
大模型
下载
大模型
llm-action:让天下没有难学的大模型
Alpaca full fine-turning
7B
大模型
LLM
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
和 13B,以及风头正劲的 Mistral
7B
。
开源模型
Gemma
大模型
中文通用大模型最全汇总
Panda: 地址:https://github.com/dandelionsllm/pandallm 简介:开源了基于LLaMA-
7B
, -13B,
大模型
开源模型
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
text-generation-webui, LangChain, privateGPT, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
Q:我是不是用开源6B、
7B
模型自己训练一个模型就够了?
垂直领域
大模型
开源模型
汇总
大模型
大模型实践总结
LLaMA-
7B
/13B/30B/65B :Meta开源的基础大语言模型。
大模型
训练
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
就是开源了一个低配版的通义千问模型--通义千问-
7B
-Chat。
通义千问
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
一.引用 在LLaMA2-
7B
这样的原始LLM中使⽤带有噪⾳嵌入进⾏微调时,其在AlpacaEval上的性能从29.8%
NEFTune
大语言模型
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
根据贾扬清的测试,LLaMA2-
7B
在A10显卡上单次请求下,每秒可以生成40个tokens(约30个单词),完全超出了人类的阅读需求。
大模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和
7B
这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100