首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI创作 |如何通过GPT进行漫画视频的故事改写
· ComfyUI的特性以及安装流程
· 6个最佳开源TTS引擎
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 阿里Outfit Anyone实现真人百变换装
· Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· ComfyUI 图片以及工作流管理神器
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG超参数调优食用指南
本文将会包括以下内
容
: 1.什么是超参数微调,以及为什么它很重要 2.
rag
大模型
Gpt写小说,常用的中文指令集「实操篇」
**`文本提示`:** - **说明:** 提供一个启发性的文本片段,指导GPT生成符合期望的小说内
容
。
GPT
写作
大模型
大模型:泛化即智能,压缩即一切!
在人工智能领域,通俗地说,泛化是指模型在训练数据中学习到的共性,这样在
面
对从未见过的数据时就能够具备很好的预测能力。
泛化
大模型
Agent
AI Agent / 智能体观察笔记(中)
这段文字会被转换成一个具体的行动影响沙盒环境并在页
面
上展示出来,同时大语言模型会把智能体的行动以一个表情包的方式展示出来。
大模型
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
Zero-shot prediction 一旦CLIP训练好了,我们就可以做zero-shot prediction了,如图所示: CLIP zero-shot prediction 步骤可以整理成下
面
这样
OpenAI
自然语言监督
提示词
【中华民族史上最强智库】完整提示词
/next:每完成一步工作,只有用户输入 ‘/next’ ,系统才能开始下一步工作 /optimize:用户可输入’/optimize ‘,然后再加上需要优化的需求,你将重新优化内
容
/
提示词
大模型
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
结论和局限性 NEFTune⽅法可以缓解模型在指令微调阶段的过拟合现象,可以更好的利⽤预训练阶段的知识内
容
。
NEFTune
大语言模型
Python
Python几种常见算法汇总
capacity / item[0] capacity = 0 return total_value 在这个示例中,我们定义了一个函数knapsack,它接受一个列表和一个
容
量作为输入
编程
python
算法
大模型
达摩院SPACE对话大模型:知识注入与知识利用
前
面
做了基本的引入和介绍,一方
面
,针对智能对话,预训练对话模型已经成为基础模型;另一方
面
,对于整个对话系统来讲,都是围绕着知识展开的。
大模型
大模型
大模型:泛化即智能,压缩即一切
在人工智能领域,通俗地说,泛化是指模型在训练数据中学习到的共性,这样在
面
对从未见过的数据时就能够具备很好的预测能力。
大模型
泛化
开源
OpenAI真的开源了!这波「实时语音」操作,让万物开口说话,我爱了
当时,都把注意力放在了发布内
容
上,忽略了这个毛绒玩具。
OpenAI
嵌入式实时语音
SDK
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
对于开源模型,如果模型与库兼
容
,会使用 vLLM 来加速模型推断,否则默认使用标准 HuggingFace 库进行推理。
过拟合
小模型
Prompt
Prompt工程如此强大,我们还需要模型训练吗?
1.Fine tune成本高,而且看起来影响模型zero shot或者通用领域方
面
的能力,
大模型
什么是BERT?
因此最后模型的输入序列tokens为下图(如果输入序列只包含一个句子的话,则没有[SEP]及之后的token): 模型的输入序列 上
面
提到了BERT的输入为每一个token对应的表征,实际上该表征是由三部分组成的
embedding
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
我们需要把W切开放到不同的卡上,则我们
面
临三个主要问题: · 怎么切分W。
开源模型
<
...
75
76
77
78
79
80
81
82
83
84
...
>
1
2
4
5
6
7
8
9
100