首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 高效选择:Ollama与LM Studio深度对比
· 全球六大主流自动PPT制作工具
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· 硬核解读Stable Diffusion(系列三)
· 用户意图对齐,无需人工标注,Zephyr-7B 超越 Llama2-Chat-70B
· 2024年傅盛开年AI大课演讲内容PPT
· 和大模型相关的一些术语(持续更新中)
· AI打破设计界限:一文教你免费打造专属Logo!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
CodeFuse开源编程大模型-您的开源编程助手
开源内
容
包括代码框架和模型。
大模型
AI编程
Gpt写小说,常用的中文指令集「实操篇」
**`文本提示`:** - **说明:** 提供一个启发性的文本片段,指导GPT生成符合期望的小说内
容
。
GPT
写作
大模型
大模型:泛化即智能,压缩即一切!
在人工智能领域,通俗地说,泛化是指模型在训练数据中学习到的共性,这样在
面
对从未见过的数据时就能够具备很好的预测能力。
泛化
大模型
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
Zero-shot prediction 一旦CLIP训练好了,我们就可以做zero-shot prediction了,如图所示: CLIP zero-shot prediction 步骤可以整理成下
面
这样
OpenAI
自然语言监督
Agent
AI Agent / 智能体观察笔记(中)
这段文字会被转换成一个具体的行动影响沙盒环境并在页
面
上展示出来,同时大语言模型会把智能体的行动以一个表情包的方式展示出来。
大模型
提示词
【中华民族史上最强智库】完整提示词
/next:每完成一步工作,只有用户输入 ‘/next’ ,系统才能开始下一步工作 /optimize:用户可输入’/optimize ‘,然后再加上需要优化的需求,你将重新优化内
容
/
提示词
大模型
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
结论和局限性 NEFTune⽅法可以缓解模型在指令微调阶段的过拟合现象,可以更好的利⽤预训练阶段的知识内
容
。
NEFTune
大语言模型
Python
Python几种常见算法汇总
capacity / item[0] capacity = 0 return total_value 在这个示例中,我们定义了一个函数knapsack,它接受一个列表和一个
容
量作为输入
编程
python
算法
大模型
达摩院SPACE对话大模型:知识注入与知识利用
前
面
做了基本的引入和介绍,一方
面
,针对智能对话,预训练对话模型已经成为基础模型;另一方
面
,对于整个对话系统来讲,都是围绕着知识展开的。
大模型
大模型
大模型:泛化即智能,压缩即一切
在人工智能领域,通俗地说,泛化是指模型在训练数据中学习到的共性,这样在
面
对从未见过的数据时就能够具备很好的预测能力。
大模型
泛化
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
对于开源模型,如果模型与库兼
容
,会使用 vLLM 来加速模型推断,否则默认使用标准 HuggingFace 库进行推理。
过拟合
小模型
开源
OpenAI真的开源了!这波「实时语音」操作,让万物开口说话,我爱了
当时,都把注意力放在了发布内
容
上,忽略了这个毛绒玩具。
OpenAI
嵌入式实时语音
SDK
Prompt
Prompt工程如此强大,我们还需要模型训练吗?
1.Fine tune成本高,而且看起来影响模型zero shot或者通用领域方
面
的能力,
大模型
什么是BERT?
因此最后模型的输入序列tokens为下图(如果输入序列只包含一个句子的话,则没有[SEP]及之后的token): 模型的输入序列 上
面
提到了BERT的输入为每一个token对应的表征,实际上该表征是由三部分组成的
embedding
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
我们需要把W切开放到不同的卡上,则我们
面
临三个主要问题: · 怎么切分W。
开源模型
<
...
74
75
76
77
78
79
80
81
82
83
...
>
1
2
4
5
6
7
8
9
100