首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· Stable Diffusion 30种采样器全解
· AIGC工具提示词技巧
· Stable Diffusion WebUI v1.8.0重大更新!
· SD入门教程二:文生图基础用法(提示词)
· Agent:OpenAI的下一步,亚马逊云科技站在第5层
· 耗时7天,终于把15种ControlNet模型搞明白了
· OpenDataLab
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
不少网友将其称为“艺术的反击”: 很高兴看到关于创意DNA拉锯战正在展
开
。
StableDiffusion
大模型
最新大模型面经+感受,4家大厂offer!
对于阿里系(拆分后各个事业群独立招聘)、字节、百度等大厂,或者百川智能、360等比较头部有名气的中小公司,或许也能给到面试机会,但是在面试过程中一旦涉及到LLM具体的
项
目
经验,像我这种完全空白的人来说只能尴尬地说没做过
大模型
面试
【进阶】-文生图术语解释
db/梦展 DreamBooth,
目
前一种性价比高(可以在极少步数内完成训练)的微调方式,但硬件要求过高 ds DeepSpeed,微软
开
发的训练方式
文生图
视频
AI创作 |如何通过GPT进行漫画视频的故事改写
一般是
开
篇的5-10章即可。
生成式AI
智谱AI静悄悄的上线了一大波新模型,过年了,真的
智谱清言上线“视频通话” 而且,这些新模型,已经全部上线了他们的
开
发者平台,现在,
开
发者已经可以直接调用API去进行
开
发了。。。
智谱AI
大模型
RAG
超越RAG:揭秘IAG框架如何引领推理问答系统的创新之路
实验结果表明,IAG在两个
开
放域问答任务上优于RAG基准线以及ChatGPT。
IAG框架
大语言模型
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?!
这些结果强调了
开
发专门策略以整合检索和语言生成模型的重要性,并为未来的研究奠定了基础。
RAG
检索
论文
小度为何押注AI眼镜?
就像
开
头看到的一样,小度AI眼镜可以帮你解放双手,成为你的全能AI助手。
AI眼镜
小度
Prompt
prompt中的分隔符号的正确使用方法
#逗号 (,)用途:用于分隔列表
项
或独立的概念。
prompt
分隔符
语音
解读wav2lip:探究语音驱动唇部动作的技术原理!
本文来自ACM 2020:A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild 代码
开
源
:https:/
wav2lip
语音
Stable Diffusion
Stable Diffusion的模型分类以及使用
01 SD模型的管理建议
开
始SD模型的分类及使用介绍之前,这里先给大家在模型管理方面一点点小的建议。
文生图
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
Following Language Models for Chinese: Investigating the Impact of Training Data and Evaluation》中,介绍了
开
源
模型的训练和评估方法
大模型
PDFTriage:面向长篇结构化文档的问答
这可能导致用户认为可以轻松回答的问题,但使用
目
前的LLM文档QA方法失败。
大语言模型
PDF
文档
提示词
Kimichat炒股:7个提示词案例
**风险水平**:风险厌恶的投资者应该寻找风险较低的投资选
项
。
Kimichat
提示词
RAG
RAG与Long-Context之争—没必要争
但大模型随着输入长度越长,KV Cache所占资
源
就越多,成本也会剧增,这也是为什么有人持观点,未来也会有RAG。
RAG
Long-Context
大模型
<
...
67
68
69
70
71
72
73
74
75
76
...
>
1
2
4
5
6
7
8
9
100