首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 几款开源的OCR识别项目,收藏备用
· 无需翻墙,可合法使用的8款国内AI大模型产品
· stable diffusion如何确保每张图的面部一致?
· PPT又又有新突破了!智谱AI代码流造PPT
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
· 胎教级SO-VITS-SVC使用教程:人工智能生成歌曲
· AI“同声传译”新进展!Google发布,无监督,语音识别:Translatotron 3!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
二、如何用 AI 切入自媒体 一)AI 写作的边界 我们进入到今天
分
享的第二部
分
:如何用AI 切入自媒体
分
享之前,我们先往远扯一点,给大家
分
享一个让我受益很多的思维方式:边界思维。
AI写作
GPT
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
,并且用绿色字体高亮了 Auto-J 给出的评判中与用户偏好对齐的部
分
。
Auto-J
大模型
Sora
OpenAI视频模型Sora的推理生成成本多高?
一
分
钟的高清视频等价于多少 Token?
Sora
推理
算力
Stable Diffusion
Stable Diffusion教程:提示词
我们通过这样
分
阶段
分
层次的工作,最终把系统实现出来。
提示词
SD
绘画
再也不用担心 AI 图片脸崩手崩了
从处理图像的区域来划
分
,这些模型
分
为三类。
ADetailer
安装
文生图
Docker介绍及常用命令大全
操作系统
分
为内核和用户空间,Linux内核启动后,会挂载root文件系统为其提供用户空间支持。
Docker
容器
PDFTriage:面向长篇结构化文档的问答
基于LLM的
分
类(第3.2节):查询LLM以从文档中选择精确的内容(页面、部
分
、检索到的内容)。
大语言模型
PDF
文档
开源
清华&面壁开源新一代主动Agent交互范式!让AI从被命令到主动帮助
ensp; 代码链接: https://github.com/thunlp/ProactiveAgent 为了更清晰地理解这一技术突破的意义,我们可以通过以下表格来详细
分
析对比两种范式的本质区别
Agent
大模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
关于这部
分
的内容有一些十
分
有价值的信息: 1.
大模型
阿里
阿里&字节发表VividTalk,只需单张照片即可根据音频生成栩栩如生的人物说话头像视频
此外,还采用了基于多
分
支变压器的网络,充
分
利用长期音频上下文来建模与中间表示的关系。
VividTalk
视频
Prompt
Prompt工程如此强大,我们还需要模型训练吗?
,她花了1
分
钟才滑下来,水滑梯将在15
分
钟后关闭,请问在关闭之前她能滑多少次?'
大模型
Agent
AI Agent的数字化革命:超越文本,走向自主决策与交互
作者将AI Agent定义为LLM、任务规划、记忆和工具使用四个部
分
的组合。
生成式AI
我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译]
利用
分
隔符来
分
节构建提示 4.
GPT-4
提示词
Stable Diffusion
Stable Diffusion 文生图全网最细详解
一定程度上决定出图的质量 调参区:设置
分
辨率、每次出图的批次、出图抽象性(和 prompt 关联性的程度) 脚本区:通过配置脚本可以提高效率;比如批量出图、多参数的出图效果比较(课程中会大量使用
文生图
SD
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
这样,GPT 模型就不需要感知全部文本,而是有重点、有目的地只关心那些相关的部
分
,这和 Transformer 内部的 Attention 机制原理相似,使得文本嵌入模型变成了 GPT 模型的记忆检索模块
GPT
<
...
48
49
50
51
52
53
54
55
56
57
...
>
1
2
4
5
6
7
8
9
100