首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· 企业如何更好的使用大模型?都有哪些框架和方案
· AI写作:如何写出逻辑清晰,结构完整的文章?一个提示词帮你搞定!
· 盘点字节跳动最新的AI应用
· 【AI绘图工具】太爆炸了,AI出图速度100fps(每秒100张图片),比LCM、SDXL Turbo更快,目前No.1
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
更完整的功能支持:ChatGLM3-6B 采
用
了全新设计的 Prompt 格式,除正常的多轮对话外。
ChatGLM3
大模型
【提前体验GPT-5】吴恩达AI智能体工作流详细解读
就在上周,提到了吴恩达教授提出的AI智能体驱动的工作流方式将会在未来成为一种趋势,并且他还说,他的团队已经证实了,利
用
此技术可以使GPT3.5的效果远超GPT4。
GPT-5
智能体
Stable Diffusion
Stable Diffusion 喂饭教程来啦!价值上万的模特AI换装方法
二 Inpaint Anything 我们会引入一个新的插件 inpaint-anything
用
来替代语义分割插件,在前面 ControlNet 中我们讲过 语义分割&
Stable
Diffusion
文生图
开源
开源大语言模型完整列表
MOSS 基座语言模型在约七千亿中英文以及代码单
词
上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使
用
多种插件的能力。
开源模型
大语言模型
Stable Diffusion
硬核解读Stable Diffusion(系列三)
SD的其它特色应
用
在SD模型开源之后,社区和研究机构也基于SD实现了形式多样的特色应
用
,这里我们也选择一些比较火的应
用
来介绍一下。
Stable
Diffusion
文生图
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
没错,Qwen2.5系列新成员Qwen2.5-Turbo,这回主打的就是支持超长上下文,并且把性价比卷出了花儿: § 上下文长度从128k扩展到1M,相当于100万个英文单
词
或150万个汉字,也就是
Qwen2.5
开源模型
工具
3.5k Star! 一分钟搭建一个属于你自己的开发工具箱!——It-tools
这些工具的使
用
频率还是挺高的,相信很多开发者经常使
用
JSON格式化和URL编码等。
IT-TOOLS
开源模型
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
Phi-2只能
用
于研究目的,不支持商
用
。
小语言模型
大语言模型的拐杖——RLHF基于人类反馈的强化学习
在此之前,传统的语言模型通常只能生成符合语法规则的句子,但往往无法理解
用
户意图,导致生成的输出与
用
户期望不符。
大模型
训练
视频
栩栩如生,音色克隆,Bert-vits2文字转语音打造鬼畜视频实践
BERT的核心思想是通过在大规模文本语料上进行无监督预训练,学习到通
用
的语言表示,然后将这些表示
用
于下游任务的微调。
Bert-vits
语音
数字人
腾讯开源的数字人MuseTalk到底行不行?
MuseTaIk特别适
用
于256x256像素的面部区域,且支持中文、英文和日文等多种语言输入。
MuseTalk
数字人
音频
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
无限注意力(Infini-attention)具有额外压缩内存,并使
用
线性注意力处理无限长的上下文。
大模型
上下文
微调
LLM微调经验&认知
换句话说,指令微调可以教他”
用
中文写文章“,但不会教他“写文章”本身。
LLM
大模型
RAG
RAG从入门到精通-RAG简介
其核心手段是利
用
外挂于LLM的知识数据库(通常使
用
向量数据库)存储未在训练数据集中出现的新数据、领域数据等。
rag
大模型
大模型
腾讯开源混元AI绘画大模型
因为搭建环境比较繁琐,虽然开源,还没有安装使
用
,我就
用
混元大模型来进行展示。
腾讯
混元
文生图
<
...
73
74
75
76
77
78
79
80
81
82
...
>
1
2
4
5
6
7
8
9
100