首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 通义千问
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· RAG模型的主要痛点和解决方案
· 使用ComfyUI玩SDXL的正确打开方式
· 爆肝!超详细的胎教级Midjourney使用教程,看这一篇就够!
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
没
法
识别出“这一年”指的是“2023年”。
Prompt
大语言模型
RAG
Prompt
提升GPT Prompt效果最佳实践 - 拆解复杂任务
具体方
法
: · 使用意图分类来识别与用户查询最相关的指令 · 对于需要很长会话的对话应用,总结或过滤之前的对话 · 分段总结长文档,并递归构建成完整摘要 使用意图分类来识别与用户查询最相关的指令
GPT
prompt
中本聪的Web3之路
根据他的论文和其他一些公开发表的言论,我们可以总结出以下几点: • 去中心化:中本聪不满意现有的金融体系,认为它过于依赖于中央权威机构,如银行和政府,来
维
持信任和安全。
token
比特币
加密货币
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
答案就是「推理时对齐方
法
」,称之为:Best-of-N。
大模型
研究
视频
超越Animate Anyone! 南加大&字节提出MagicPose,不需任何微调就可生成逼真的人类视频
南加州大学&字节提出MagicPose,一种新颖有效的方
法
,提供逼真的人类视频生成,实现生动的运动和面部表情传输,以及不需要任何微调的一致的野外零镜头生成。
MagicPose
视频
大模型
无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
其中一个让大模型能力增强的方
法
之一,便是增加大模型的上下文窗口。
Anthropic
大语言模型
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
现在我认为供应量正在
减
少。
Llama
3
大语言模型
剪映专业版智能补帧
二、有哪些补帧的方
法
?
剪映
智能补帧
大模型
10个大模型私有化需要关注的问题
用户信息安全无小事,私有化一大重要原因是为了包含数据安全,如果不能采取高优先级的措施保护数据安全,那么最终也无
法
达成预期。
开源模型
Stable Diffusion
Stable Diffusion教程:采样器
Diffusion 中采样器和采样步数有着紧密的关系,在采样的每一步,采样器会按照一个噪音计划表控制噪音的水平,在第一步噪音水平最高,在最后一步噪音水平降为零,如下图所示: 增加采样步数,可以
减
少每步之间的降噪幅度
画图
SD
采样器
人工智能
深度洞察:人工智能体(AI Agent)2024年重要发展趋势指南
人工智能体将有办
法
完成行动。
AI
Agent
人工智能
ComfyUI
从零开始:构建你的首个ComfyUI工作流
步文生图工作流搭建 接下来,我以实操的方式带你一步步搭建文生图的工作流,你不需要在刚入门的时候做笔记,去记那些枯燥乏味的功能,因为我认为只有实际的操作一遍,才能掌握那些功能,明白各个功能的作用,这也是我一贯的教学
思
维
comfyui
文生图
工作流程
说真的,学会用SD做电商图,你才是真的入了门
而我要做的事,就是毫无保留的与各位分享实际案例和方
法
,希望有更多人看到SD的生产能力,进而有兴趣学习和使用。
文生图
SD
电商
大语言模型的拐杖——RLHF基于人类反馈的强化学习
强化学习:然后使用Proximal Policy Optimization (PPO)或类似的算
法
对模型进行微调,这些算
法
将人类生成的奖励信号纳入其中。
大模型
训练
ChatGPT
使用ChatGPT检查论文引用、提高研究深度
本文将指导您如何使用ChatGPT来检查论文引用的准确性、深化研究方
法
、提升数据分析技能、分析统计模型、提高研究效率、解释复杂概念。
ChatGPT
案例
<
...
24
25
26
27
28
29
30
31
32
33
...
>
1
2
4
5
6
7
8
9
100