首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· PPT又又有新突破了!智谱AI代码流造PPT
· 图解大模型训练之:张量模型并行(TP),Megatron-LM
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
· 15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
· DeepMusic发布“和弦派”2.0:重塑AI音乐创作范式,赋予创作者全方位掌控
· AIGC工具提示词技巧
· 一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
· 用AI为古诗词生成插画
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
AI写作不如意?万字长文深度剖析背后原因
这个想
法
对我很有吸引力。
AI写作
AGI
通往AGI之路:思维链提示过程
思维链(Chain of Thought,CoT) 提示过程是一种最近开发的提示方
法
,它鼓励大语言模型解释其推理过程。
思维链
提示词
Stable Diffusion
stable diffusion最全18种controlnet模型,详细教程讲解。
领域正在持续关注,等到年底的时候做一个最全面的视频和文字讲解,现在还是在等等,目前AI领域热度确实是在持续降温,但是呢,深入了解AI的人都知道,AI的发展不是想人一样需要很长时间的积累,有时候可能就是一个算
法
的突破
Stable
Diffusion
文生图
controlnet
RAG
高级 RAG 技术——图解概览
这里展示了一个方案,描述了核心步骤和涉及的算
法
。
RAG
检索
图解
开源
网易(TTS)EmotiVoice:开源语音合成,支持2000多音色
你是否曾经想过,如果你能用不同的情感和语气来表达你的想
法
,那该多有趣?
EmotiVoice
语音合成
大模型
AI大模型LLM可以帮助企业做什么?
从这个规
律
来看,尽管大型语言模型(LLM)现在占据了AI领域的中心舞台,吸引了所有人的关注,但这并不意味着在LLM出现之前AI毫无发展。
大模型
LLM
2023年LLM如何入门?请看这篇综述!
为了理解和掌握语言,开发能力强的人工智能算
法
面临着重大挑战。
大模型
Stable Diffusion
Stable Diffusion|背景替换只需要两分钟!
这个方
法
虽然可行,但不够高效,非常考验图片处理技术。
SD
背景
文生图
动作识别模型有哪些
目前基于two-stream的方
法
基本上是由TSN作为骨干网络。
动作识别
模型
数字人
这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
值得注意的是,尽管Fay项目的潜力巨大,但开发者在构建和部署应用时,也需要遵守相关
法
律
法
规,并确保内容的真实性和合
法
性,特别是在涉及商品推广、心理健康测评等敏感领域。
Fay
开源项目
数字人
ChatGPT
使用 ChatGPT + Claude 撰写成功的商业计划书
你需要设定节奏和旋
律
,但一旦你这样做了,它们带来的即兴创作简直就是一首交响乐。
工作
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
2.2 进阶概念 视觉模型的扩展规
律
。
sora
论文
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
不过,能否通过恰当的训练方
法
(比如数据选择等),使得小型的语言模型也能获得类似的能力?
小语言模型
Agent
AI Agent的千亿美金问题:如何重构10亿知识工作职业,掀起软件生产革命?
这一框架下 LLM 是核心推理引擎,而 agent 是使 LLM 扬长避短、结构化思考的方
法
论。
大模型
AI编程
大模型
大模型高效微调:🤗 PEFT 使用案例
PEFT方
法
仅微调少量(额外的)模型参数,显著降低了计算和存储成本,因为对大规模PLM进行完整微调的代价过高。
大模型
<
...
20
21
22
23
24
25
26
27
28
29
...
>
1
2
4
5
6
7
8
9
100