首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 高级 RAG 技术——图解概览
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 扣子更新图像流功能,字节版 ComfyUI 来了!
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· Stable Diffusion AnimateDiff | 最稳定的基于文本生成视频的方法
· ChatGLM智谱清言
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Sora
通俗易懂地解释OpenAI Sora视频生成的特点有哪些?它与此前的Runway Gen2、Pika有什么区别?以及缺点是什么?
而此前的视频平台,如Runway Gen2,文本生成视频的方式只能选择16:9, 9:16, 1:1, 4:
3
,
3
:4, 以及 21:9的长宽比。
sora
视频生成
ChatGLM
【本地部署】智谱chatglm3-6B第三代!性能如何?支持调用tools+Agent+代码执行!小白教程!附网盘下载!
3
.
chatglm
智普
大模型
RAG
RAG超参数调优食用指南
1.什么是超参数微调,以及为什么它很重要 2.超参数搜索的类型
3
.
rag
大模型
大模型
国内法律类大模型介绍
香港中文大学(深圳) * Code: https://github.com/siat-nlp/HanFei
3
.
法律
大模型
大模型
中文原生文生图大模型来了!腾讯混元推出,Sora 同架构
升级后的腾讯混元文生图大模型采用了全新的DiT架构(DiT,即Diffusion With Transformer),这也是Sora和 Stable Diffusion
3
的同款架构和关键技术,是一种基于
文生图
混元
腾讯
SDXL
最受欢迎的SDXL模型,Turbo极速来袭!
50mm 2、星空下的女超人 提示词: supergirl pondering her orb,shiny iridescent glowing,skyscape at night,
3
、
sdxlturbo
绘画
从0到1谈谈智能客服系统的设计与实现
3
核心功能设计和实现 我们将按照用户一次完整的访问客服系统所需的先后次序
智能客服
Agent
LangChain Agent 原理解析
3
.过了一会儿,小明回来给你一杯咖啡。
大模型
开源
开源本地化部署的「妙鸭相机」,真的要革了「海马体」们的命了?|手把手教你搭建「妙鸭相机」
· 步骤
3
:选择需要生成的模板。
训练
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
3
.
开源模型
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
表 1 & 图
3
:成对回复比较任务的结果 在单回复评论生成任务上,将 Auto-J 生成的评论与其他模型的评论进行了一对一比较,可以看到不管是基于 GPT-4
Auto-J
大模型
工具
世界顶级七大管理工具:SWOT、PDCA、6W2H、SMART、WBS、时间管理、二八原则、波特五力分析
3
.对象(what)——功能与本质 这个产品的功能如何?
管理工具
大模型
PostgreSQL的三位一体——在大模型应用中结合关系型、向量和时间序列数据
在RAG应用中,如果行业知识文件被切分出几万个,那么使用时间过滤就会非常重要,比如我们只需要检索2023年
3
月份的合同文件,那么就可以用时序数据将目标chunk从几万个里面先挑出来,再进行向量计算。
大模型
PostgreSQL
ChatGPT
如何使用ChatGPT写出优质文章
3
.
ChatGPT
写作
Transformer
图解 transformer——逐层介绍
每个编码器都包含: 多头注意层 前馈层
3
、 解码器堆栈包含若干个解码器。
Transformer
大模型
图解
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100