首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Coze多智能体(Multi-Agents)模式体验!
· 【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
· 包阅AI-免费AI阅读翻译神器!
· Sora相关论文合集---全32套大放送
· Stable Diffusion 快速创作角色三视图
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· GPTs使用指南 | 保姆级GPTs入门教程,0代码基础也能做AI产品
· 大模型评测新思路:弱智吧精华问题大全
· 用so-vits-svc-4.1进行音色转换的极简教程!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
训练魔法
RAG
无限长的上下文,也干不掉的RAG
本文《Lost in the Middle: How Language Models Use Long Contexts》通过实验探讨了语言模型在处理长文本上下文时的性能,发现模型性能会随着相关信息在上下文中的位置变化而显著下降,尤其是在需要从长上下文中间提取信息时。研究还探讨了模型架构、查询感知上下文化和指令微调的影响,并通过开放域问答案例研究提供了对现有语言模型使用长上下文的理解。这些发现对于未来长上下文模型的评估和改进具有重要意义。
RAG
大模型
2024-07-11
2024-07-11
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
文章总结了本地电脑上运行大型语言模型(LLM)时需要考虑的关键因素,包括模型名称解读(模型名+参数量)、模型精度(full precision、half precision等)、模型文件大小的计算(参数量与精度的关系)、内存需求(推断与训练时所需不同)、内存、显存与硬盘的使用情况,以及如何选择适合的模型。建议普通用户选择能跑的最大的4bit模型,并根据实际情况估算所需内存。
大语言模型
运行
2024-07-11
2024-07-11
一旦参透「第一性原理」,便洞悉所有事的本质
文章总结:第一性原理是一种深度分析的思维方式,它要求我们跳出传统思维的框架,回到问题的最基础、最核心的部分,忽略既有的假设和“常识”,从而找到创新的解决方案。要培养第一性原理思维,需学会识别和质疑现有假设,拆解问题到最基本的元素,并从根本上重新构建解决方案。通过实践如挑战权威、拆解问题、重构框架和迭代实验等步骤,我们可以提高问题解决能力。文章通过咖啡店销量下降和特斯拉电动汽车创新两个案例,展示了第一性原理在日常生活和工作中的应用及其重要性,强调了这种思维方式在创新和发展中的价值。
第一性原理
大模型
2024-07-10
2024-07-10
教程
AI声音克隆 | 最全最简教程(权威版)
本文介绍了声音克隆技术,特别是GPT-SoVITS和Bert-VITS2两个开源项目,它们分别适用于快速实现声音克隆和追求更高质量的语音合成。GPT-SoVITS因其快速训练时间和跨语言能力受到推荐,并提供了详细的教程指导如何在OpenBayes平台上使用该项目克隆声音。文章还强调了数据集质量对生成结果的重要性,并以李雪健老师的声音为例,展示了克隆声音的效果。整体而言,本文为声音克隆技术的初学者提供了一个实用且易懂的入门指南。
声音克隆
教程
2024-07-10
2024-07-10
大模型
大模型落地“诸神之战”,场景玩家先杀出重围了
今年,大模型技术在多个领域展现出惊人落地速度,特别是在家居家电行业,已能实现快速生成精美家居效果图和种草视频。这一进步得益于定制化的家居家电大模型,它融合了自然语义、视觉和视频大模型,并吸收了专业设计师的家居布置案例和家装流行色搭配数据,确保了生成内容的自然美观。该技术已帮助美的、TCL等品牌提高营销效率,降低了成本。此外,AI营销产品如“来客易”、“森易销”和“森生万物”等,分别解决了线下门店引流、线上电商运营和品牌内容管理等问题,展现了AI在营销领域的巨大潜力。这些案例表明,拥有丰富行业经验和数据的场景玩家正在快速崛起,推动AI技术在更多领域实现落地应用。
大模型
文生图
2024-07-10
2024-07-10
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎,旨在通过整合检索到的信息和大型语言模型(LLM)来提升回答的质量和准确性。它支持多种文件类型,具有智能解析、可视化处理和可解释性等特点,允许用户轻松上传、管理和查询文档。RAGFlow不仅提高了知识库RAG的召回率,还提供了易于集成的API,适用于各类企业系统。此外,RAGFlow持续更新,集成新的模型和功能,以满足不同需求。部署RAGFlow需要一定的系统配置,包括Docker和适当的硬件资源。
OCR
RAG
开源
2024-07-09
2024-07-09
开源
6个最佳开源TTS引擎
本文总结了多个优秀的开源文本到语音(TTS)引擎,这些引擎基于深度学习或传统技术,支持多种语言,包括中文。文章列举的引擎如CoQuiTTS、mozillaTTS、OpenTTS、MaryTTS、eSpeak、Mimic、CMU Flite TTS、MBROLA、mandarin-tts、FCH-TTS和rhasspypiper等,各自具有独特的功能和优势,适用于不同的应用场景,如帮助视觉障碍者理解文本、在车辆中播报文本信息、模拟人声、虚拟主播和歌手等。这些开源项目有助于提升TTS技术的发展和应用。
TTS引擎
开源模型
2024-07-09
2024-07-09
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2系列模型开源,包含五个尺寸,支持27种语言,性能优异。模型使用GQA,实现推理加速和显存降低。在基准测试中超越当前领先模型。支持多种框架,可微调、量化、部署和二次开发。Qwen团队将继续探索更大模型和多模态模型。无资源部署者可体验大模型竞技场中的Qwen2-72B-instruct。
qwen
千问
开源
2024-06-07
2024-06-07
开源
GLM4 开源了!!!还有多模态
智谱AI开源了GLM-4-9B预训练模型,该模型在语义理解、数学推理、代码执行等领域表现卓越,支持多轮对话、网页浏览、代码执行等功能,同时增加了对26种语言的支持。基于GLM-4-9B的多模态模型GLM-4V-9B表现突出。GLM-4-9B系列模型在多个评测任务中均展现卓越性能,可快速调用体验。这一开源举措将为AI社区带来新活力和创新动力。
智普
ChatGLM
多模态
2024-06-05
2024-06-05
大模型
从零开始学习大模型-第一章-大模型简介
大模型是人工智能领域拥有大量参数的深度学习模型,通过学习大规模数据,能处理复杂任务。大模型具有高性能、泛化能力和多功能性,广泛应用于自然语言处理、图像识别等领域。其兴起得益于数据量的增加、计算能力的提升和算法的改进。初学者需掌握基础知识、大模型原理、工具和框架,通过实践项目、参与社区和持续学习提升能力。大模型的微调是将预训练模型适配到特定任务的关键过程,需注意学习率选择、冻结层和数据不平衡等问题。
大模型
从零开始
2024-05-24
2024-05-24
动作识别模型有哪些
动作识别模型主要包括TWO-STREAM CNN、TSN、C3D、RNN等。TWO-STREAM CNN由处理RGB图像和光流图像的两个部分构成,并联合训练。TSN是TWO-STREAM的改进版,通过将视频分段并随机选取片段进行训练,解决了TWO-STREAM不能对长时间视频建模的问题。C3D则使用三维卷积核处理视频,虽效果略低但训练速度快且网络结构简洁。RNN因能处理序列问题而被用于动作识别,相关研究工作提出了结合姿态注意力的RNN模型。此外,还有TRN、TSM和SlowFast等模型,它们分别对TSN的融合方式、2D网络的时序建模以及不同时间频率的语义捕获进行了改进和优化。
动作识别
模型
2024-05-24
2024-05-24
大模型
回望做大模型一年后的感悟
本文总结了AI领域的多个观点,包括OpenAI的稳定性问题、大模型领域的进步、开源与闭源的差距、LLaMA对大模型生态的影响以及中国研究者的实力。文章认为,尽管OpenAI在某些方面领先,但并非稳如泰山;国内在大模型领域的进步显著,且部分研究者的实力超过外界预期。同时,文章也指出了开源与闭源之间的差距,并强调了数据在模型训练中的重要性。最后,文章对中国在AI领域的发展充满期待。
大模型
感悟
2024-05-24
2024-05-24
吴恩达老师建议大家关注 AI 智能体工作流
吴恩达老师强调关注AI智能体工作流,可显著提升AI应用性能。他总结了一套智能体设计模式,包括反思、使用工具、规划及多智能体合作。通过迭代处理和多智能体协同,AI能产生更优质成果。近期研究也显示,采用迭代智能体工作流可大幅提升AI性能。未来将深入探讨这些设计模式并提供相关阅读材料。
智能体
大语言模型
2024-05-24
2024-05-24
AI国力战争:GPU是明线,HBM是暗线
本文指出,随着AI技术的迅猛发展,算力已成为国家竞争力的重要体现。当前,全球范围内在AI算力领域的竞争日趋激烈,大模型和GPU作为算力核心,备受关注。然而,在这场竞争中,HBM(高带宽内存)作为关键一环,却往往被忽视。 HBM是DRAM的一种升级产品,基于3D堆栈工艺,可以实现更高的内存带宽和更低的能耗,完美契合大模型对数据量和算力的近乎无上限需求。然而,HBM市场高度垄断,主要由韩国的海力士和三星主导,这使得其他国家在HBM供应上面临高风险。随着AI基础算力需求的大爆发,HBM供应紧张,价格高昂,成为制约AI算力进一步发展的瓶颈。 文章强调,从2024年起,HBM将继GPU之后成为各个国家在算力竞争的关键。目前,韩国在HBM领域遥遥领先,美国虽有独苗美光科技苦苦支撑,但与中国相比仍具优势。而中国在HBM产业链上的存在感尚弱,国内尚无法量产HBM,这成为国内自研AI芯片的重大隐忧。 为了突破这一困境,文章提出了两条投资逻辑:一是参与全球HBM产业链,选择能够参与到全球HBM供应链中的企业;二是相信国产化能够成功,选择可能在HBM封装上发挥作用的上市公司。然而,由于HBM技术难度高、投资金额大,且需要存储厂、晶圆代工厂、封装厂的通力合作,因此国产HBM的突破仍面临诸多挑战。 总的来说,本文深入剖析了HBM在AI算力竞争中的关键作用以及全球HBM市场的现状与挑战,强调了国产HBM突破的重要性和紧迫性,为相关企业和投资者提供了有价值的参考。
GPU
HBM
大模型
2024-05-23
2024-05-23
大模型
大模型应用的10种架构模式
本文总结了大模型应用领域的架构模式,包括路由分发、大模型代理、多任务微调、面向微调的分层缓存策略、混合规则、知识图谱、智能体蜂巢、智能体组合、记忆认知及双重安全等十个模式。这些模式旨在解决大模型应用中的成本、性能、准确性以及安全性等问题,使人工智能服务更加高效、准确且安全。文章强调,随着技术的不断探索和创新,未来可能还会出现更多新的架构模式,为人工智能服务的发展提供更多可能性。
大模型
架构
2024-05-23
2024-05-23
<
...
9
10
11
12
13
14
15
16
17
18
...
>
1
2
4
5
6
7
8
9
100