首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 3.5k star!一款万能的 SQL 分析工具,厉害了!
· PPT又又有新突破了!智谱AI代码流造PPT
· Deepseek-V2技术报告解读!全网最细!
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· SD入门教程四:图生图基础用法
· StableDiffusion模型推荐系列(功能型)
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 盘点字节跳动最新的AI应用
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
图解
大
模
型
训练之:张量
模
型
并行(TP),Megatron-LM
今天我们将要介绍最重要,也是目前基于Transformer做
大
模
型
预训练最基本的并行范式:来自NVIDIA的张量
模
型
并行(TP)。
开源模型
文心一言
文心一言
大
模
型
使用指南
今天分享 『文心一言』
大
模
型
的使用和相关功能介绍。
文心一言
百度
中国
大
模
型
「顶流群聊」笔记
因此,在这波
大
模
型
浪潮中跑出来的公司首先要有算力,几个人、几十张卡的「禀赋」,还是去选择
调
用中心化的
大
模
型
可能更务实。
大语言模型
LLM
七问
大
模
型
幻觉|LLM Hallucination
幻觉现象的存在严重影响LLM应用的可靠性,本文将探讨
大
型
语言
模
型
(LLMs)的幻觉问题,以及解决幻觉现象的一些常见方法。
大模型
开源
最新最全的开源中文
大
语言
模
型
列表
,包含了一系列基于已有开源
模
型
(ChatGLM, MOSS, LLaMA)进行二次
微
调
的语言
模
型
,指令
微
调
数据集等。
大模型
如何估计
大
模
型
所需要的显存
大
小?HuggingFace发布Model Memory Calculator,一键计算
大
模
型
显存需求
大
模
型
对显卡资源的消耗是很
大
的。
大模型
Agent
从第一性原理看
大
模
型
Agent技术
人们通过描述角色技能、任务关键词、任务目标及任务背景,告知
大
模
型
需要输出的格式,并
调
用
大
模
型
进行输出。
大模型
agent
开源
国内外开源
大
语言
模
型
一览表
ProactiveHealthGPT,包括: 经过千万规
模
中文健康对话数据指令
微
调
的生活空间健康
大
模
型
扁鹊(BianQue) 经过百万规
模
心理咨询领域中文长文本指令与多轮共情对话数据联合指令
微
调
的心理健康
大
模
型
灵心
大模型
大
模
型
能力快速测评极简题目
玉皇
大
帝住在平流层还是对流层?
大模型
大
模
型
:泛化即智能,压缩即一切
如果你认同Scaling Law定律,你就应该相信通过
大
量不同的数据来追求长期的
模
型
泛化能力比短期的通过巧妙的
模
型
微
调
更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
开源
中文对话
大
模
型
BELLE全面开源!(附:数据+
模
型
+轻量化)
-7b1-mt(70亿参数)为基础,分别在20万,60万,100万,200万数据上进行指令
微
调
后得到的
模
型
Checkpoint。
belle
训练
大模型
大
模
型
量化:什么是
模
型
量化,如何进行
模
型
量化
What:什么是
模
型
量化 简单来说,
模
型
量化(Model Quantization)就是通过某种方法将浮点
模
型
转为定点
模
型
。
大模型
预训练对话
大
模
型
深度解读
其实它只是一个数学
模
型
,它强
大
的原因是:用到的计算量很
大
、数据量很
大
、训练语言
模
型
的方法比以前好。
面向知识图谱的
大
模
型
应用
for Parallel Function Calling》(https://arxiv.org/abs/2312.04511), 颇受启发,或许可以通过LLM Compiler 实现已有知识图谱系统的
大
模
型
赋能
知识图谱
大模型
回望做
大
模
型
一年后的感悟
没有“百
模
大
战” “百
模
大
战”这个词在过去一年被反复提及,但
大
家似乎混淆了所谓“
模
型
”的概念。
大模型
感悟
<
...
2
3
4
5
6
7
8
9
10
11
...
>
1
2
4
5
6
7
8
9
100