首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MidjourneyAPI
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· 懒人福音!用AI生成会议纪要,让你的工作更高效!
· 通义千问
· 结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
· 掌握 Midjourney 提示词技巧成为 25 个流派的摄影大师
· 6个AI音乐软件推荐,让你学会人工智能AI作曲
· 会议纪要类提示词大全-最全会议纪要prompt
· 盘点字节跳动最新的AI应用
· AI自动生成视频全流程干货
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Transformer
Transformer速查宝典:模型、架构、训练方法的论文都在这里了
本篇综述涵盖了 21 种模型、11 种架构变化、7 种预训练后处理
技
术
和 3 种训练
技
术
(还有 5 种不属于以上
技
术
的东西)。
Transformer
Transformer
图解 Transformer——功能概览
其独特之处不仅在于其
技
术
上的突破,更在于它如何彻底改变了我们对语言模型潜力的理解。
Transformer
大模型
图解
RAG
检索增强生成(RAG)有什么好的优化方案?
下面针对每个模块
分
别做说明(备注:以下内容部
分
参考了检索增强生成
技
术
(RAG)深度优化指南:原理、挑战、措施、展望)。
RAG
检索增强
大模型
OpenAI开源大模型调测工具Transformer Debugger:可以在训练大模型之前理解模型的运行情况并干预
自从OpenAI转向盈利化运营之后,很少再开源自己的
技
术
。
大模型
调试工具
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
引言 紧跟
技
术
发展趋势,快速了解大模型最新动态。
大模型
研究
ChatGPT
ChatGPT提示工程5篇合集 - 吴恩达和OpenAI出品
关键是,课程免费,而且讲师是吴恩达(Andrew Ng,DeepLearning.AI创始人)和伊莎·富尔福德(Isa Fulford,OpenAI的
技
术
人员),含金量非常高。
ChatGPT
prompt
教程
openpose原理及安装教程(姿态识别)
OpenPose基于深度学习和计算机视觉
技
术
,采用了卷积神经网络(CNN)来实现对人体姿态的准确识别。
行为识别
姿态识别
MCP服务介绍及应用场景报告-来自Manus
研究方法与内容概述 本报告采用文献研究和案例
分
析
相结合的方法,通过收集和
分
析
来自官方文档、
技
术
博客、学
术
论文和实践案例的信息,全面介绍MCP服务的各个方面。
MCP
大模型
大模型
预训练对话大模型深度解读
前段时间看到吴军博士的一个
分
享:”ChatGPT不算新
技
术
革命,带不来什么新机会“,里面讲到一个道理,这些都是资本家操作出来割大家韭菜的。
开源
搞了一个Dify开源知识库
对于AI创业的小伙伴来说,dify具备了AI原生应用的
技
术
栈,值得学习、研究一波,加以应用实践,或许会走很多弯路。
Dify
大模型
知识库
ChatGPT
Prompt逆向工程:ChatGPT通过多角色对抗生成完美提示词
今天,我要
分
享的是“对抗性演练”的逆向提示词
技
巧。
Prompt
ChatGPT
Stable Diffusion
Stable Diffusion超清放大及修复细节操作
我是木木~今天我要跟大家
分
享一个超清放大和修复细节的
技
巧!
Stable
Diffusion
文生图
90个常用的思维模型
例如,系统思维帮助我们看到整体,而不仅仅是局部,可以更加系统地
分
析
问题,找到最佳解决方案。
大模型
工作
大模型
链接大模型与外部知识,智源开源最强语义向量模型BGE
在大模型时代,它更是用于解决幻觉问题、知识时效问题、超长文本问题等各种大模型本身制约或不足的必要
技
术
。
embedding
语义向量
大语言模型的拐杖——RLHF基于人类反馈的强化学习
该
技
术
涉及使用人类反馈创建奖励信号,然后通过强化学习来改善模型的行为。
大模型
训练
<
...
21
22
23
24
25
26
27
28
29
30
...
>
1
2
4
5
6
7
8
9
100