首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Coze多智能体(Multi-Agents)模式体验!
· 【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
· 包阅AI-免费AI阅读翻译神器!
· Sora相关论文合集---全32套大放送
· Stable Diffusion 快速创作角色三视图
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· GPTs使用指南 | 保姆级GPTs入门教程,0代码基础也能做AI产品
· 大模型评测新思路:弱智吧精华问题大全
· 用so-vits-svc-4.1进行音色转换的极简教程!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
个人从零预训练1B LLM心路历程
不过即使我在预训练里加了这部分数据,效果也是大概率比不过在
qwen
、llama这种大机构发布的模型基础上进行微调的。
LLM
训练
大模型
大模型评测新思路:弱智吧精华问题大全
., 2024)和
Qwen
-72B(Bai et al., 2023)模型进行了微调,以分析数据源对模型跨领域知识能力的影响,并使用 Belle-Eval 上基于模型(即 GPT-4)的自动评估来评估每个模型在各种任务上的性能
弱智吧
训练数据集
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
在多项权威多模态评测中超过零一万物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-7B等开源模型,在综合能力测评MMBench中超过了谷歌GeminiProVision、阿里
Qwen
-VL-Plus
XVERSE-V
多模态大模型
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
7b-qlora-colorist --prompt-template colorist Llama "联网" -- 更可靠及时的回答 借助 XTuner 及插件开源数据集,我们还解锁了 Llama 2、
QWen
大模型
大模型
MindChat心理大模型
MindChat-InternLM-7B ModelScope / HuggingFace / OpenXLab MindChat-
Qwen
心理大模型
大模型
领域大模型-训练Trick&落地思考
而以目前各厂(ChatGLM、BaiChuan、
Qwen
、Llama)抢占开源社区占比的架势,感觉会有很多7B、13B级别模型开源。
垂直
训练
大模型
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
我之前介绍过的千问(
Qwen
)和百川(baichuan)运行要求就是8G+显存。
大模型
ChatGLM
大模型
国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
而国产模型中阿里巴巴的千问大模型
Qwen
-7B和智谱AI的ChatGLM-12B也进入了前10,分别是第九和第十。
大模型
OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
基础语言模型
Qwen
2.5 - 0.5b - instruct负责处理文本输入,它具备丰富的语义理解能力,能够对输入的文本进行深入分析。
OmniVision
-
968M
多模态模型
开源
Falcon 180B 开源影响了谁?
-13B-Chat与其4bit量化版本;智源的悟道3.0中的悟道・天鹰大语言模型;智谱AI的ChatGLM-6B 和 ChatGLM2-6B;面壁智能的CPM-Bee 10B;通义千问的
Qwen
大模型
大模型
回望做大模型一年后的感悟
大模型应该分为两类,一类是从头开始训练的基础模型,比如:Yi、
QWen
、Baichuan、ChatGLM、DeepSeek等等;另一类是continue pretraining和sft类别的模型。
大模型
感悟
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们还是坚持用国产大模型(如Baichuan2-13B、ChatGLM3-6B和
QWen
-14B等),毕竟主要服务的还是国内客户,加上现在接触的多数客户其实都有私有化部署的需求。
RAG
检索增强
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
三、实验设置 在对比模型上,选用ChatGPT , ChatGLM-6B , ChatGLM2-6B , Vicuna-7b-v1.3 ,
Qwen
-7B- Chat , BELLE-7B-2M
大模型
RAG检索增强
Deepseek-V2技术报告解读!全网最细!
in_features=5120, out_features=102400, bias=False) ) 我们从上往下,从embedding层的维度来看,与Gemma, LLaMA和
Qwen
Deepseek-V2
大模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
其中在 OpenCompass 榜单中,综合 11 个主流评测基准的结果表明,MiniCPM-V 2.0 的通用多模态能力超越了
Qwen
-VL-Chat-10B、CogVLM-Chat
MiniCPM
大模型
<
1
2
3
4
>
1
2
4
5
6
7
8
9
100