首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 硬核解读Stable Diffusion(系列三)
· 从声纹模型到语音合成:音频处理 AI 技术前沿 | 开源专题 No.45
· 划重点!全网最全AI数字人工具合集!
· 本地部署Manus+DeepSeek保姆级教程!
· 【Agent专题】Agent架构设计:智能体架构设计的9大核心技术全景深解析,附架构图
· Trickle + Nano Banana,我给老婆 VibeCoding 了一个虚拟试衣间
· 秘塔AI搜索
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
一文探秘LLM应用开发-Prompt(相关概念)
而OpenAI选择了一个当时看来很难但不一定正确的路线,2018年6月发布了GPT1,参数量1.17亿,模型大
小
5gb,而bert仅几百M,效果在具体任务上却比GPT好,但他们并没有放弃,也正是如此,在
prompt
大模型
大模型
通俗解读大模型微调(Fine Tuning)
Prompt Tuning Prompt Tuning的出发点,是基座模型(Foundation Model)的参数不变,为每个特定任务,训练一个少量参数的
小
模型,在具体执行特定任务的时候按需调用。
大模型
微调
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
Andrej Karpathy对比了GPT-3与LLaMA模型,并且承认了LLaMA-65B的模型尽管参数更
小
,但是比GPT-3更强大。
大模型
一文带你认识ELMo
所谓word embedding就是一个n*1维的列向量,其中n表示embedding向量的大
小
; 第二步:送入双向LSTM模型中,即上图中的Lstm; 第三步:将LSTM的输出
embedding
Transformer
图解 Transformer——功能概览
然而,它们在处理长距离的依赖关系方面也有限制: 卷积层中,只有图像(或文字,如果应用于文本数据)中足够接近于核大
小
的部分可以相互作用。
Transformer
大模型
图解
AI提示设计技巧剖析 - 29个动词助你获取更好文本生成
每个人都可以从日常生活中的
小
事做起,比如减少单次使用的塑料制品,选择步行或骑自行车而不是开车,关掉不必要的电灯和电器,尽可能地回收和再利用物品。
提示词
文本
<
...
80
81
82
83
84
85
86
87
88
89
>
1
2
4
5
6
7
8
9
100