首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
训练魔法
Google
Google 模型解读 | MoveNet-SinglePose:自底向上做单人姿态估计
MoveNet是Google推出的轻量化单人姿态估计模型,采用bottom-up范式,集成了MobileNetv2和FPN等经典结构,具备快速下采样、残差连接和参数集中等特性。其独特之处在于Head部分包含四个预测头,分别用于检测中心点、回归关节点坐标、检测关键点以及预测偏移值,以消除量化误差。后处理流程通过加权方法选取最相关的关键点,并利用Offset Regression减少误差。MoveNet在特定数据集上表现出色,与top-down模型相当,且经过工程优化加速推理速度。此外,Google还推出了多人姿态估计版本的MoveNet-MultiPose,但变动较大且精度不理想。
MoveNet-SinglePose
Google
模型
2024-07-17
2024-07-17
Deepseek-V2技术报告解读!全网最细!
Deepseek发布了v2版本模型,沿用Deepseek-MoE技术,采用小专家建模与多优化策略。该模型完全开源并支持商用,提供了低成本的API调用方案。v2模型在MMLU上取得第二名,超越V1版本,并显著提升成本效率与推理速度。其核心优化在于多头隐式注意力(MLA),旨在减少显存占用,同时保持模型效果。模型架构包含60层,采用RMSNorm和SiLU激活函数,并通过对话数据进行对齐训练。工程上,v2通过流水线并行和专家并行策略,结合资源感知专家负载均衡方法,实现了训练效率的最优。模型在基座能力和指令遵循能力上表现强劲,得益于数据优化和训练策略的深度整合。
Deepseek-V2
大模型
2024-07-17
2024-07-17
腾讯
AI助手App“腾讯元宝”已上线应用商店
腾讯元宝是一款基于腾讯混元大模型的AI产品,已在部分安卓应用商店上架,但尚未在苹果App Store上线。它支持中英文输入与理解,并允许用户创建个性化智能体,提供AI搜索、解析、写作和多种实用应用功能,旨在提升用户在办公、学习、创作和生活等领域的效率与体验。
腾讯元宝
2024-07-16
2024-07-16
Agent
Coze多智能体(Multi-Agents)模式体验!
文章简要介绍了Coze平台更新的多智能体(Multi-Agents)功能,包括其定义、与单智能体的区别,以及通过实际案例展示如何创建和配置多智能体。文章还提到了著名且开创性的多智能体研究或项目,并提供了体验Coze多智能体的链接和步骤,涵盖了从确定应用场景、构建公司架构到创建、配置、调试和发布多智能体的整个过程。
Coze
多智能体
2024-07-16
2024-07-16
AIGC
AIGC系列之一-一文理解什么是Embedding嵌入技术
文章介绍了嵌入技术(Embedding)的基本概念、原理及其在人工智能与图形计算(AIGC)和实际应用场景中的应用。Embedding是一种将高维数据映射到低维空间的技术,广泛应用于机器学习和自然语言处理中,通过训练得到的Embedding向量可以更准确地表示数据的内在含义。文章列举了Word2Vec、GloVe、FastText等几种常见的Embedding模型,并解释了它们的工作原理和优势。此外,还阐述了Embedding的降维、捕捉语义信息、适应性、泛化能力和可解释性等价值。在应用场景方面,文章指出Embedding在文本分类、推荐系统以及AIGC等领域具有广泛的应用,特别是在处理隐私风险和长文本任务时,通过内容向量化存储在向量数据库中,能有效提升数据处理效率和准确性。
AIGC
Embedding
嵌入技术
2024-07-16
2024-07-16
工具
3.5k star!一款万能的 SQL 分析工具,厉害了!
dsq是一款强大的SQL分析工具,支持Excel、JSON、CSV等本地文件格式,使用标准SQL语法进行查询、分析和处理,功能全面且性能卓越,在GitHub上获得近3.5k星标。项目开源免费,安装简便,支持正则表达式、缓存、函数和脚本等高级功能,可通过命令行轻松使用,适用于各种数据处理场景。
dsq
开源项目
SQL
2024-07-16
2024-07-16
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?!
本文探讨了基于检索增强的语言模型(RAG)系统中信息检索组件对性能的影响。研究发现,包括不相关文档反而能提高系统准确性,强调整合检索与生成模型的重要性。通过密集检索和基于语言模型的生成器,RAG框架解决了复杂查询问题,实验表明,正确放置无关文档能提高准确率,为优化RAG系统提供了新见解。该研究为进一步发展信息检索技术以适应生成组件提供了基础。
RAG
检索
论文
2024-07-15
2024-07-15
【AI代理】扣子,开始探索多代理模式
文章总结: 代理模式可增强大模型功能并规避其弱点。多代理模式则通过分配任务给多个机器人或模型,实现更精细化和准确化的处理。扣子智能体系统已上线多代理模式,并允许通过角色设定和全局跳转条件等方式优化用户体验和任务处理。多代理模式在丰富场景和精细化处理上展现出巨大潜力。
多代理模式
大模型
2024-07-15
2024-07-15
【AI代理】多代理模式之多任务分配&信息传递
文章总结了通过代理模式探索多任务分配和代理间信息传递的过程。设置了四个角色代理,包括一个总代理和三个负责不同任务的代理(刘备、关羽、张飞)。通过任务分配和代理间信息传递,模拟了群体会话场景,展示了无信息依赖和有信息依赖的多任务处理。强调了代理模式在模型差异化情况下的优势,并探讨了专用模型调优的可能性。
多任务模式
分配
传递
2024-07-15
2024-07-15
Transformer
图解 Transformer——功能概览
文章简要介绍了Transformer架构在自然语言处理(NLP)领域的革命性影响。Transformer利用注意力机制显著提高了深度学习NLP模型的性能,特别是翻译模型。它改变了从序列建模的传统方法到更高效、能捕捉复杂语言模式的新框架。Transformer由编码器和解码器堆栈组成,通过自注意力和编码器-解码器注意力机制处理输入和输出序列。文章还详细解释了Transformer的训练和推理过程,包括Teacher Forcing技术,并指出了Transformer在处理长距离依赖和并行计算方面的优势,相较于RNN和CNN架构。Transformer已广泛应用于各种NLP任务,如机器翻译、文本摘要、情感分析等。
Transformer
大模型
图解
2024-07-12
2024-07-12
腾讯
为什么说腾讯22年前的这份神级PPT是立项汇报的天花板?
文章深入分析了腾讯早期一份极具价值的PPT《Avatar Business Plan》,这份PPT不仅成功推动了QQ秀业务的诞生,也展现了作者许良敏锐的市场洞察力、严谨的逻辑思考力和强大的执行力。PPT虽朴素但充满说服力,通过数据、逻辑、落地和细节的完整呈现,成为立项汇报的典范。文章还强调了成功项目背后多因素的综合作用,以及个人奋斗与历史进程的关联,进一步丰富了PPT的价值解读。
PPT
腾讯
立项汇报
2024-07-12
2024-07-12
大模型
中国大模型融资暗战:罗曼蒂克的快速消亡
本文概述了中国大模型创业公司之间的资本竞争和融资动态。月之暗面突然获得超10亿美元(后修正为8亿美元)融资,成为市场焦点,同时揭示了阿里在大模型投资上的积极策略。文章还对比了月之暗面与MiniMax两家公司的融资历程、背后关键人物、以及各自的商业模式和战略选择。此外,讨论了AI投资市场的整体趋势,包括风投机构的参与减少、巨头主导时代的到来、以及大模型创业公司商业化挑战等问题。最后,文章引用投资人的观点,预测了大模型公司投资回报的潜在路径和退出时点的可能性。
大模型
暗战
2024-07-12
2024-07-12
我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译]
由新加坡政府科技局(GovTech)组织的首届 GPT-4 提示工程大赛冠军 Sheila Teo 写的《我是如何夺冠新加坡首届 GPT-4 提示工程大赛的》 Sheila 总结了 4 种提示词技巧
GPT-4
提示词
2024-07-11
2024-07-11
RAG
无限长的上下文,也干不掉的RAG
本文《Lost in the Middle: How Language Models Use Long Contexts》通过实验探讨了语言模型在处理长文本上下文时的性能,发现模型性能会随着相关信息在上下文中的位置变化而显著下降,尤其是在需要从长上下文中间提取信息时。研究还探讨了模型架构、查询感知上下文化和指令微调的影响,并通过开放域问答案例研究提供了对现有语言模型使用长上下文的理解。这些发现对于未来长上下文模型的评估和改进具有重要意义。
RAG
大模型
2024-07-11
2024-07-11
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
文章总结了本地电脑上运行大型语言模型(LLM)时需要考虑的关键因素,包括模型名称解读(模型名+参数量)、模型精度(full precision、half precision等)、模型文件大小的计算(参数量与精度的关系)、内存需求(推断与训练时所需不同)、内存、显存与硬盘的使用情况,以及如何选择适合的模型。建议普通用户选择能跑的最大的4bit模型,并根据实际情况估算所需内存。
大语言模型
运行
2024-07-11
2024-07-11
<
...
8
9
10
11
12
13
14
15
16
17
...
>
1
2
4
5
6
7
8
9
100