首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
国产编程大模型CodeGeex
CodeGeeX的平均表现优于InCoder-6.7B和CodeGen-Multi-
6B
/16B。
编程
知乎
弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
在规模较小的Yi-
6B
模型上,纯弱智吧版本总分排名第三,还不算太突出。
弱智吧
训练数据集
ChatGPT
【ChatGPT有点热】浅聊Temperature参数对大语言模型的推理能力的影响
用
ChatGLM2
做测试: 可以看到,temperature太高基本上就处于完全不可用的状态,但加入top_p结果就能恢复正常。
大语言模型
chatGPT
大模型
投资人逃离大模型
如果回溯中国大模型的发展历程,记者认为起始点为2022年年底,彼时国内高校率先发布大模型产品,比如复旦MOSS、北大ChatExcel测试版、清华大学“chatglm-
6B
”大模型、上海交通大学研发的“
大模型
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
已知内容: {context} 问题: {query}""" 将context和query填充到模版得到的prompt,加它输入给ChatGLM-
6B
就能生成response
langchain
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
用户可以轻松地一键下载和部署内置的各种前沿开源模型,例如 Llama 2(https://ai.meta.com/llama/)、
ChatGLM2
、通义千问等。
开源模型
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
其中在 InfiniteBench 榜单的平均成绩较量中,MiniCPM-2B-128K 以 2B 的「小身躯」超越一众
6B
、7B 量级模型,比如 Yi-
6B
-200K、Yarn-Mistral
MiniCPM
大模型
如何用大语言模型构建一个知识问答系统
在 ChatGLM-
6B
微调实践中可以发现,使用 ADGEN 数据集微调后,模型对“广告词生成”任务的确变好,但其他任务的回答均不如原始模型。
知识库
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
B是Billion/十亿的意思,常见
6B
模型是60亿参数量的大模型。
大模型
大模型
中国AI大模型,应该如何商业化
以智谱AI为例,目前智谱AI开源的模型参数主要为
6B
,参数较小。
大模型
AI
2024,智谱如何更快?
04 后记 2023年3月14日,GPT-4发布的同一天,智谱AI跟着便发布了基于千亿基座模型的对话模型ChatGLM,并开源了中英双语对话模型ChatGLM-
6B
,可支持在单张消费级显卡上进行推理使用
GPT-4
大语言模型
Agent
LangChain Agent 原理解析
有人希望通过一些开源的 LLM 来实现 ReAct Agent,但实际开发过程中会发现开源低参数(比如一些
6B
、7B 的 LLM)的 LLM 对于提示词的理解会非常差,根本不会按照提示词模板的格式来输出
大模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们还是坚持用国产大模型(如Baichuan2-13B、ChatGLM3-
6B
和QWen-14B等),毕竟主要服务的还是国内客户,加上现在接触的多数客户其实都有私有化部署的需求。
RAG
检索增强
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
大模型 一般认为NLP领域的大模型>=10 Billion参数(也有人认为是
6B
、7B, 工业界用, 开始展现涌现能力);经典大模型有GPT-3、BLOOM、Flan-T5、GPT-NeoX、
大模型
大模型
炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
如图8所示,虽然提高分辨率确实会导致性能提升(eva-448与eva-224,InternViT-
6B
-224px与InternViT-
6B
-448px),但编码器参数的数量与指标之间并没有直接关系。
Baichuan-Omni
多模态大模型
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100