首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 分享一个结构化AI提示词模版
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 中文开源OCR框架对比及介绍
· 主流网络爬虫蜘蛛详解
· 一种通用的 Prompt 框架 - CRISPE
· AI 换脸——Deepfacelab 下载与安装,新手教程
· Suno歌曲制作
· 技术爆炸!AI一图换脸新王者,Instant ID保姆级安装与使用测评
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
团队发现,当时的模型尽管架构相似,但在算法框架方面存在许多不同,比如 encoder-decoder 模型、
auto
-encoding 自编码模型、
auto
-regressive 自回归模型等。
智谱
AI
9个范例带你入门langchain
温馨提示:小心使用
Auto
GPT, 会迅速消耗掉你大量的token。
大模型
大模型
中文通用大模型最全汇总
它采用Transformer自回归架构(
auto
-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。
大模型
开源模型
AI+音乐|对话 Suno CEO:破圈的音乐生成产品是如何诞生的?
在Suno最新的版本v3中引入了更多自然 sounding 和较少
auto
-tune 样式的人声,以及为用户提供对创作过程更细致控制的新功能。
suno
音乐
Stable Diffusion
SD入门教程一:Stable Diffusion 基础(技术篇)
而这个 Encoder 加 Decoder 的组件,也被称为 Variational
Auto
Encoder(变分自编码器)简称 VAE 。
Stable
Diffusion
文生图
大模型
真格基金大模型能力测试问题集---进阶篇
Obama, Donald
J
.
中文
评测
大模型
大模型
语言大模型100K上下文窗口的秘诀
这样,我们就得到一个形状为(n,n)的矩阵,其中n_ij表示第i个和第
j
个词元之间的相对注意力分数(0-1之间),这展示了这些词元在给定长度为n的特定上下文中有多“接近(close)”。
大模型
使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
”,抽象需要分发流量的 “前端” 和 “后端”,在必要的时候,只需要扩展 “服务数量即可”: user nginx; worker_processes
auto
Dify
Moonshot
API
工作流
开源
Chinese-LLM开源中文大语言模型合集
它采用Transformer自回归架构(
auto
-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。
大模型
中文
RAG
12个RAG常见痛点及解决方案
Advanced retrieval and search ·
Auto
-Retrieval
RAG
大模型
最顶尖的大语言模型人才,只关心这10个挑战
Auto
-GPT现在是GitHub上星标数量排名第25的最受欢迎的库。
大语言模型
开源
ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
模型从大量的候选段落找出能回答问题的那个段落 语音处理 任务(英文) 任务(中文) 任务说明
auto
-speech-recognition
开源
Stable Diffusion
这篇深入浅出帖助你早日实现Stable diffusion自由
VAE模型:变分自解码器(Variational
Auto
Encoder),vae的作用是增强模型的色彩、光照等表现效果,相当于给模型加了美颜滤镜。
AI图片
开源
最新最全的开源中文大语言模型列表
它采用Transformer自回归架构(
auto
-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
Improve Transformer》论文里提到:SwiGLU 已被证明可以显著提高模型效果 提出Parallel Layers:每个 Transformer 结构中的“并行”公式:与 GPT-
J
-
大模型
<
1
2
3
4
5
6
>
1
2
4
5
6
7
8
9
100