首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 使用ChatGPT润色出高品质文章!
· ChatGLM智谱清言
· Trickle + Nano Banana,我给老婆 VibeCoding 了一个虚拟试衣间
· 集成文字生成、抠图、图像融合等强大功能的comfyUI 插件 Allor Plugin
· Stable Diffusion 加速/优化/升级 优化出图速度
· 一个专业级 AI 聊天浏览器,开源了!
· 商汤日日新
· 基于本地知识的问答机器人langchain-ChatGLM
· GPU 性能(数据表)快速参考
· AI自动生成视频全流程干货
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
大语言模型定制化应用的三种方式:Prompt engineering、Fine tuning、Pre-trainning的区别
通过在任务特定
数
据
集上微调模型参
数
,使模型适应特定任务的要求。
大模型
RAG
简单提升RAG的10种方法
数
据
清理 RAG 将LLM的能力与特定
数
据
联系起来。
RAG
大模型
微调
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
因为我们是在特定领域的
数
据
上更新模型权重,模型产生更多的上下文响应。
生成式AI
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
大模型通过海量
数
据
和超高
数
量的参
数
,实现面向复杂问题的“预测”能力。
大模型
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
具体方法 训练
数
据
总体上遵循如下的流程示意图: 图1:训练
数
据
收集流程示意图 场景的定义和参考评估标准:  
Auto-J
大模型
ChatGPT
ChatGPT写论文指令全集
描述研究设计:详细说明你的研究设计、
数
据
收集和分析方法。
ChatGPT
写作
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
CodeShell的原始训练
数
据
基于自己爬取的Github
数
据
、Stack和StarCoder
数
据
集,以及少量高质量的中英文
数
据
。
开源模型
AI编程
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
多任务和多
数
据
集共同训练面临的一个重要挑战是不同
数
据
集关联的文本标签的相当大的变化。
大模型
语音
GPTs
智能时代的变革者:定制化GPTs重塑未来的五大预言
这不仅包括
数
据
输入和处理,还扩展到更复杂的工作,如初级
数
据
分析和报告编写。
GPTs
智能
Sora
OpenAI视频模型Sora的推理生成成本多高?
GPT-4 的训练
数
据
约为 13T - 20T 之间,我们假设为 20T
数
据
则 GPT-4 训练所需的 FLOPs = 6 * 400B * 20T = 4.8 * 10^25 目前最大的模型训练计算量预估在
Sora
推理
算力
大模型
国内AI大模型已近80个,哪个最有前途?
字节有最多的多模态中文私有
数
据
。
大模型
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
并且,在 Lamini 的项目地址中有着 · 1400 个问答
数
据
集(这是关于 Lamini 的内部工程文档,你也可以将其自定义); · 在此
数
据
集上运行 LLM 微调的代码;
大模型
Stable Diffusion
Stable Diffusion LightFlow 作弊插件!一键复用工作流
支持一键保存所有生成
数
据
,让工作流被完整复现并进行分享。
流程
SD
大模型
大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免
逆转诅咒显示出基本无法泛化到训练
数
据
之外。
大模型
大模型
通俗解读大模型微调(Fine Tuning)
第三个原因是,Prompt Engineering的效果达不到要求,企业又有比较好的自有
数
据
,能够通过自有
数
据
,更好的提升大模型在特定领域的能力。
大模型
微调
<
...
51
52
53
54
55
56
57
58
59
60
...
>
1
2
4
5
6
7
8
9
100