首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 为你推荐开源项目:Meridian——专属个人情报站!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· GenColor.ai
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Stable Diffusion 30种采样器全解!
· RVC和SVC声音模型难找?推荐这个网站
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 全新换脸工具ReActor,比roop更强!
· 关于AI声音生成的一切(语音+音乐+嘴型)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
Ilya做出的突破,使OpenAI不再受限于获取足够的高质量数据来
训
练
新模型,而这,正是开发下一代模型的主要障碍。
OpenAI
大模型
开源
开源大语言模型完整列表
基于预
训
练
+ 持续微调的学习策略融合大规模普通文本和多种对话数据
训
练
而成,充分利用
训
练
语言模型语言能力和知识,高效构建强大的对话模型。
开源模型
大语言模型
大模型
GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
2.3 预
训
练
模型 预
训
练
是一个非常漫长且成本高昂的过程,这就是为什么这不是本课程的重点。
LLM
大模型
GitHub
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
=INFONCCL_SOCKET_IFNAME=eth0NCCL_P2P_DISABLE=1 多机
训
练
效率不如单机: 多机
训
练
可以跑起来,但是在多机上模型
训
练
的速度比单机上还慢。
大模型
CodeGeeX2来了!效果超LLaMA2-70B
由于代码安全性,很难使用 Github Copilot 去 AI 生成,发现清华发布了「CodeGeeX2」,基于 ChatGLM2-6B 基座模型,CodeGeeX2-6B 进一步经过了 600B 代码数据预
训
练
CodeGeeX2
开源模型
医疗
惊艳!2.77亿参数锻造出Agent+GPT-4V模型组合,领航AI领航机器人、游戏、医疗革新,通用智能时代你准备好了吗?
2.77亿参数、1340万帧视频
训
练
数据,背后蕴含着怎样的技术秘密?
Agent+GPT-4V
大模型
开源
F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
不需要复杂的设计如持续时间模型、文本编码器和音素对齐,能够快速
训
练
并实现实时因素(RTF)0.15的推理速度,显著优于当前基于扩散的TTS模型。
F5-TTS
音频克隆
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
CM3leon是第一个使用从纯文本语言模型改编的方法进行
训
练
的多模态模型,包括大规模检索增强预
训
练
阶段和第二个多任务监督微调(SFT)阶段。
文生图
大模型
从零开始学习大模型-第一章-大模型简介
数据需求高:为了有效
训
练
这些模型,需要大量的
训
练
数据。
大模型
从零开始
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
2 BGE M3-Embedding 2.1
训
练
数据构建 M3-Embedding的
训
练
用了非常庞大且多样化的多语言数据集,
BGE
M3-Embedding
多语音检索
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
Baichuan-13B 有如下几个特点: 更大尺寸、更多数据:Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到130亿,并且在高质量的语料上
训
练
了1.4万亿 tokens
大模型
中文
LLM
4种通过LLM进行文本知识图谱的构建方法对比介绍
使用LLM预
训
练
本体(ontologies) LLM似乎已经接受了各种标准本体(如SCHEMA)的预先培
训
。
知识图谱
大模型
大模型
中文通用大模型最全汇总
;第一步:先在42G中文预料上进行
训
练
;后续将会加大
训
练
规模;Chinese-LlaMA2-chat: 对Chinese-LlaMA2进行指令微调和多轮对话微调,以适应各种应用场景和多轮对话交互。
大模型
开源模型
盘古
华为盘古画画3.0发布 | PanGu-Draw:业界最大的中文文生图模型,效果YYDS!
图1显示了两种现有的
训
练
策略:(a)级联
训
练
,使用三个模型来逐步提高分辨率,数据效率高,但
训
练
和推理时间增加了三倍。
PanGu-Draw
文生图
大模型
HalluQA: 测测中文大模型有没有一本正经胡说八道
第一类幻觉是模型会错误地模仿预
训
练
语料中的行为或判断,而这些行为或判断是与真实世界不一致的。
大模型
中文大模型
幻觉
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100