首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
【进阶】-文生图术语解释
,但炸炉前的日志插件可以提取二次
训
练
废丹 指完全没有
训
练
成功 美学/ext Aesthetic
文生图
开源
M3E 可能是最强大的开源中文嵌入模型
M3E的数据集,模型,
训
练
脚本,评测框架都开源。
开源模型
大模型
天塌了,Scaling Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
报道提到,GPT 开发速度放缓的部分原因是用于预
训
练
的文本和数据供应减少(预
训
练
有助于 LLM 理解概念之间的关系,从而解决起草内容或调试代码等任务)。
Scaling
Law
AI大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:我理解此问题的情形是:已有的lora模型只
训
练
了一部分数据,要
训
练
另一部分数据的话,是在这个lora上继续
训
练
呢,还是跟base 模型合并后再套一层lora,或者从头开始
训
练
一个lora?
大模型
Stable Diffusion
Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
训
练
方式非常简单,只需要提供 5 到 20 张肖像图片(最好是半身照片且尽量不要佩戴眼镜),20 分钟左右,Stable diffusion 就可以
训
练
好数字分身。
SD
文生图
写真照
Transformer
图解 Transformer——功能概览
四、Transformer
训
练
过程 Transformer 的
训
练
和推理有一些细微差别。
Transformer
大模型
图解
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
如果想进一步提升模型效果:还可以使用大规模业务数据,对预
训
练
模型进行 Domain-adaptive Pretraining,
训
练
完以后得到预
训
练
模型,再进行无监督的 SimCSE。
开源模型
一键部署本地“妙鸭”,证件照,写真照,模特换装全部搞定!
#02
训
练
我们先来看它的第一个功能——
训
练
。
妙鸭
文生图
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained Transformer(生成式预
训
练
转换器)是一种基于互联网的、可用数据来
训
练
的、文本生成的深度学习模型。
大模型
人工智能
大模型
通俗解读大模型微调(Fine Tuning)
为什么要对大模型进行微调 通常,要对大模型进行微调,有以下一些原因: 第一个原因是,因为大模型的参数量非常大,
训
练
成本非常高,每家公司都去从头
训
练
一个自己的大模型,这个事情的性价比非常低; 第二个原因是
大模型
微调
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
相比而言,CodeLlama在强大的Llama2上继续预
训
练
依然学习了超过5000亿Token,而StarCoder冷启动
训
练
了10000亿Token,是CodeShell的两倍。
开源模型
AI编程
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
由于模型是基于从互联网抓取的大量数据集进行
训
练
的,
训
练
数据集可能无意中包含了与基准测试中的问题高度相似的样本。
过拟合
小模型
开源
开源版妙鸭相机来了,无限出个人写真图(阿里达摩院出品)
FaceChain支持在gradio的界面中使用模型
训
练
和推理能力,也支持资深开发者使用python脚本进行
训
练
推理。
妙鸭相机
文心一言
揭秘Baichuan 3超越GPT-4的中文实力!文心一言、GLM 4.0也甘拜下风?全方位对比测试大揭秘!
但百川智能通过一系列技术创新,成功解决了高质量数据获取、
训
练
稳定性和
训
练
效率等关键问题。
Baichuan
3
大模型
LLM
2023年LLM如何入门?请看这篇综述!
A:确实,那近几年的话,研究人员提出了预
训
练
语言模型PLM,通过对大规模语料库进行Transformer模型的预
训
练
,展现了解决各种NLP任务的强大能力。
大模型
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100