首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
训练魔法
一旦参透「第一性原理」,便洞悉所有事的本质
文章总结:第一性原理是一种深度分析的思维方式,它要求我们跳出传统思维的框架,回到问题的最基础、最核心的部分,忽略既有的假设和“常识”,从而找到创新的解决方案。要培养第一性原理思维,需学会识别和质疑现有假设,拆解问题到最基本的元素,并从根本上重新构建解决方案。通过实践如挑战权威、拆解问题、重构框架和迭代实验等步骤,我们可以提高问题解决能力。文章通过咖啡店销量下降和特斯拉电动汽车创新两个案例,展示了第一性原理在日常生活和工作中的应用及其重要性,强调了这种思维方式在创新和发展中的价值。
第一性原理
大模型
2024-07-10
2024-07-10
教程
AI声音克隆 | 最全最简教程(权威版)
本文介绍了声音克隆技术,特别是GPT-SoVITS和Bert-VITS2两个开源项目,它们分别适用于快速实现声音克隆和追求更高质量的语音合成。GPT-SoVITS因其快速训练时间和跨语言能力受到推荐,并提供了详细的教程指导如何在OpenBayes平台上使用该项目克隆声音。文章还强调了数据集质量对生成结果的重要性,并以李雪健老师的声音为例,展示了克隆声音的效果。整体而言,本文为声音克隆技术的初学者提供了一个实用且易懂的入门指南。
声音克隆
教程
2024-07-10
2024-07-10
大模型
大模型落地“诸神之战”,场景玩家先杀出重围了
今年,大模型技术在多个领域展现出惊人落地速度,特别是在家居家电行业,已能实现快速生成精美家居效果图和种草视频。这一进步得益于定制化的家居家电大模型,它融合了自然语义、视觉和视频大模型,并吸收了专业设计师的家居布置案例和家装流行色搭配数据,确保了生成内容的自然美观。该技术已帮助美的、TCL等品牌提高营销效率,降低了成本。此外,AI营销产品如“来客易”、“森易销”和“森生万物”等,分别解决了线下门店引流、线上电商运营和品牌内容管理等问题,展现了AI在营销领域的巨大潜力。这些案例表明,拥有丰富行业经验和数据的场景玩家正在快速崛起,推动AI技术在更多领域实现落地应用。
大模型
文生图
2024-07-10
2024-07-10
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎,旨在通过整合检索到的信息和大型语言模型(LLM)来提升回答的质量和准确性。它支持多种文件类型,具有智能解析、可视化处理和可解释性等特点,允许用户轻松上传、管理和查询文档。RAGFlow不仅提高了知识库RAG的召回率,还提供了易于集成的API,适用于各类企业系统。此外,RAGFlow持续更新,集成新的模型和功能,以满足不同需求。部署RAGFlow需要一定的系统配置,包括Docker和适当的硬件资源。
OCR
RAG
开源
2024-07-09
2024-07-09
开源
6个最佳开源TTS引擎
本文总结了多个优秀的开源文本到语音(TTS)引擎,这些引擎基于深度学习或传统技术,支持多种语言,包括中文。文章列举的引擎如CoQuiTTS、mozillaTTS、OpenTTS、MaryTTS、eSpeak、Mimic、CMU Flite TTS、MBROLA、mandarin-tts、FCH-TTS和rhasspypiper等,各自具有独特的功能和优势,适用于不同的应用场景,如帮助视觉障碍者理解文本、在车辆中播报文本信息、模拟人声、虚拟主播和歌手等。这些开源项目有助于提升TTS技术的发展和应用。
TTS引擎
开源模型
2024-07-09
2024-07-09
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2系列模型开源,包含五个尺寸,支持27种语言,性能优异。模型使用GQA,实现推理加速和显存降低。在基准测试中超越当前领先模型。支持多种框架,可微调、量化、部署和二次开发。Qwen团队将继续探索更大模型和多模态模型。无资源部署者可体验大模型竞技场中的Qwen2-72B-instruct。
qwen
千问
开源
2024-06-07
2024-06-07
开源
GLM4 开源了!!!还有多模态
智谱AI开源了GLM-4-9B预训练模型,该模型在语义理解、数学推理、代码执行等领域表现卓越,支持多轮对话、网页浏览、代码执行等功能,同时增加了对26种语言的支持。基于GLM-4-9B的多模态模型GLM-4V-9B表现突出。GLM-4-9B系列模型在多个评测任务中均展现卓越性能,可快速调用体验。这一开源举措将为AI社区带来新活力和创新动力。
智普
ChatGLM
多模态
2024-06-05
2024-06-05
大模型
从零开始学习大模型-第一章-大模型简介
大模型是人工智能领域拥有大量参数的深度学习模型,通过学习大规模数据,能处理复杂任务。大模型具有高性能、泛化能力和多功能性,广泛应用于自然语言处理、图像识别等领域。其兴起得益于数据量的增加、计算能力的提升和算法的改进。初学者需掌握基础知识、大模型原理、工具和框架,通过实践项目、参与社区和持续学习提升能力。大模型的微调是将预训练模型适配到特定任务的关键过程,需注意学习率选择、冻结层和数据不平衡等问题。
大模型
从零开始
2024-05-24
2024-05-24
动作识别模型有哪些
动作识别模型主要包括TWO-STREAM CNN、TSN、C3D、RNN等。TWO-STREAM CNN由处理RGB图像和光流图像的两个部分构成,并联合训练。TSN是TWO-STREAM的改进版,通过将视频分段并随机选取片段进行训练,解决了TWO-STREAM不能对长时间视频建模的问题。C3D则使用三维卷积核处理视频,虽效果略低但训练速度快且网络结构简洁。RNN因能处理序列问题而被用于动作识别,相关研究工作提出了结合姿态注意力的RNN模型。此外,还有TRN、TSM和SlowFast等模型,它们分别对TSN的融合方式、2D网络的时序建模以及不同时间频率的语义捕获进行了改进和优化。
动作识别
模型
2024-05-24
2024-05-24
大模型
回望做大模型一年后的感悟
本文总结了AI领域的多个观点,包括OpenAI的稳定性问题、大模型领域的进步、开源与闭源的差距、LLaMA对大模型生态的影响以及中国研究者的实力。文章认为,尽管OpenAI在某些方面领先,但并非稳如泰山;国内在大模型领域的进步显著,且部分研究者的实力超过外界预期。同时,文章也指出了开源与闭源之间的差距,并强调了数据在模型训练中的重要性。最后,文章对中国在AI领域的发展充满期待。
大模型
感悟
2024-05-24
2024-05-24
吴恩达老师建议大家关注 AI 智能体工作流
吴恩达老师强调关注AI智能体工作流,可显著提升AI应用性能。他总结了一套智能体设计模式,包括反思、使用工具、规划及多智能体合作。通过迭代处理和多智能体协同,AI能产生更优质成果。近期研究也显示,采用迭代智能体工作流可大幅提升AI性能。未来将深入探讨这些设计模式并提供相关阅读材料。
智能体
大语言模型
2024-05-24
2024-05-24
AI国力战争:GPU是明线,HBM是暗线
本文指出,随着AI技术的迅猛发展,算力已成为国家竞争力的重要体现。当前,全球范围内在AI算力领域的竞争日趋激烈,大模型和GPU作为算力核心,备受关注。然而,在这场竞争中,HBM(高带宽内存)作为关键一环,却往往被忽视。 HBM是DRAM的一种升级产品,基于3D堆栈工艺,可以实现更高的内存带宽和更低的能耗,完美契合大模型对数据量和算力的近乎无上限需求。然而,HBM市场高度垄断,主要由韩国的海力士和三星主导,这使得其他国家在HBM供应上面临高风险。随着AI基础算力需求的大爆发,HBM供应紧张,价格高昂,成为制约AI算力进一步发展的瓶颈。 文章强调,从2024年起,HBM将继GPU之后成为各个国家在算力竞争的关键。目前,韩国在HBM领域遥遥领先,美国虽有独苗美光科技苦苦支撑,但与中国相比仍具优势。而中国在HBM产业链上的存在感尚弱,国内尚无法量产HBM,这成为国内自研AI芯片的重大隐忧。 为了突破这一困境,文章提出了两条投资逻辑:一是参与全球HBM产业链,选择能够参与到全球HBM供应链中的企业;二是相信国产化能够成功,选择可能在HBM封装上发挥作用的上市公司。然而,由于HBM技术难度高、投资金额大,且需要存储厂、晶圆代工厂、封装厂的通力合作,因此国产HBM的突破仍面临诸多挑战。 总的来说,本文深入剖析了HBM在AI算力竞争中的关键作用以及全球HBM市场的现状与挑战,强调了国产HBM突破的重要性和紧迫性,为相关企业和投资者提供了有价值的参考。
GPU
HBM
大模型
2024-05-23
2024-05-23
大模型
大模型应用的10种架构模式
本文总结了大模型应用领域的架构模式,包括路由分发、大模型代理、多任务微调、面向微调的分层缓存策略、混合规则、知识图谱、智能体蜂巢、智能体组合、记忆认知及双重安全等十个模式。这些模式旨在解决大模型应用中的成本、性能、准确性以及安全性等问题,使人工智能服务更加高效、准确且安全。文章强调,随着技术的不断探索和创新,未来可能还会出现更多新的架构模式,为人工智能服务的发展提供更多可能性。
大模型
架构
2024-05-23
2024-05-23
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?
本文研究了基于检索增强的语言模型(RAG)中信息检索组件对系统性能的影响,发现添加不相关文档可提高准确性,揭示了RAG系统的优化方向和局限性。论文首次关注RAG的IR方面,提出了方法策略并利用实验结果进行验证,为未来发展新一代信息检索技术提供了基础。未来可进一步研究内在机制,探索更复杂的模型和技术以提高性能。
RAG
检索增强
2024-05-23
2024-05-23
大模型
使用大模型自动回复小红书/抖音/快手评论:通过RAG 优化LLMs实现
本文介绍了使用检索增强生成(RAG)技术改进大型语言模型(LLM)性能的方法,特别是在YouTube自动评论回复中的应用。文章首先解释了LLM的作用,即取代人工进行降本增效,并以自动回复用户提问为例说明其应用场景。然而,LLM存在两个关键限制:静态的知识和对小众及专业信息理解不足,这可能导致对用户查询产生不良或虚构的模型响应。 为减轻这些限制,文章提出了RAG技术。RAG通过向基本LLM处理过程添加检索步骤,根据用户提示从外部知识库中提取相关信息并注入到提示中,从而增强LLM的性能。这种方法灵活且直接,可以改进基于LLM的系统。此外,由于知识存储在外部数据库中,更新系统知识也变得简单。 文章详细描述了RAG系统的两个关键要素:检索器和知识库。检索器接受用户提示并从知识库中返回相关项目,通常使用文本嵌入来表示和比较用户查询与知识库中每个项目的相似度。知识库则包含想要提供给LLM的所有信息,可以通过从一组文档中构建得到。 文章还讨论了构建RAG系统时的一些细微差别,如文档准备、选择合适的块大小以及改善搜索策略等。最后,文章提供了一个示例代码,展示了如何使用RAG技术改进YouTube评论回复程序,包括安装必要的Python库、建立知识库、设置检索器以及将RAG添加到LLM中。 通过比较无上下文和有上下文的模型响应,文章展示了RAG技术如何帮助LLM更准确地回答技术问题,并捕捉更丰富的解释。这一方法不仅提高了LLM的性能,也使其更适用于实际应用场景。
RAG
大模型
自动回复
2024-05-22
2024-05-22
<
...
9
10
11
12
13
14
15
16
17
18
...
>
1
2
4
5
6
7
8
9
100