首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI Agent的数字化革命:超越文本,走向自主决策与交互
· 推荐一个自动生成复杂提示词的模版:思考链(CoT)如何通过分步推理提升AI任务准确性 | 示例详解
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 用so-vits-svc-4.1进行音色转换的极简教程!
· ChatGLM3在线搜索功能升级
· 巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
· 50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
训练魔法
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
aiXcoder团队发布了全新开源的代码大模型aiXcoder-7B Base版,专注于企业软件开发场景,尽管参数仅70亿,但表现超越340亿参数的Codellama,成为百亿级最强代码大模型。该模型在真实开发场景中表现优异,尤其在代码生成补全和跨文件能力上领先,支持私有化部署和个性化定制,旨在提高开发效率和代码质量,加速软件开发自动化进程。
aiXcoder-7B
大模型
2024-09-24
2024-09-24
RAG
RAG 修炼手册|一文讲透 RAG 背后的技术
本文详细介绍了从Embedding技术到Transformer、BERT、LLM(包括GPT系列和ChatGPT)等自然语言处理领域的发展历程及基本原理。Embedding将非结构化数据转为向量表示,Word2Vec是其早期代表,但存在多义词问题。Transformer通过自注意力机制捕捉上下文关系,推动了BERT等预训练模型的发展,实现了句子嵌入。GPT系列作为LLM的代表,通过不断迭代提升了文本生成能力,ChatGPT则进一步增强了响应指令、代码生成、推理等能力,但也存在数学能力弱、产生幻觉、知识不实时更新等不足。RAG技术作为解决方案之一,结合了向量数据库和LLM。整体而言,深度学习在自然语言处理领域的应用日益广泛,未来可期。
RAG
Embedding
2024-09-23
2024-09-23
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
Meta提出了MEGALODON,一种用于高效大语言模型(LLM)预训练和推理的神经架构,实现了无限长上下文的建模能力。该架构继承并改进了MEGA架构,通过引入复数指数移动平均(CEMA)、时间步归一化层、归一化注意力机制及具有两跳残差的预归一化配置,提高了模型在处理长文本时的效率和稳定性。实验结果显示,MEGALODON在多项基准测试中表现优异,特别是在处理长上下文时,显著优于现有的Transformer变体,证明了其在建模极长序列方面的有效性和鲁棒性。
Meta
长文本
大模型
2024-09-20
2024-09-20
LLM
LLM Agent最常见的九种设计模式(图解+代码)
本文介绍了LLM Agent的九大设计模式,包括ReAct、Plan and Solve、Reason without Observation、LLMCompiler、Basic Reflection、Reflexion、Language Agent Tree Search、Self-Discover和Storm。每种模式通过其原理、提示词模板、架构组成等方面进行了详细阐述,并强调了通过定制Prompt模板和外部工具定义来实现Agent落地场景的重要性。文章最后指出,没有最好的设计模式,只有最适合用户需求的设计模式。
LLM
Agent
图解
2024-09-19
2024-09-19
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
Groq模型以惊人速度每秒输出近500个token,远超ChatGPT-3.5,其背后自研的LPU(语言处理单元)是关键,比GPU性能快10倍,且成本更低。Groq模型免费用,支持多种AI开发框架,但不支持训练。LPU设计独特,采用SRAM而非HBM,提升了速度和能效,适合大规模AI推理。Groq已在基准测试中表现出色,或可取代GPU在AI推理中的应用。公司CEO表示其目标是帮助更多人发展AI。
Groq
大模型
2024-09-18
2024-09-18
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
本文精心编译自 OpenAI Sora 的主要作者Tim Brooks 和 Bill Peebles 在AGI House 主题演讲。Tim 和 Bill 轮番分享了Sora的训练细节、数据工程及未来设想,是技术报告之外最一手的信息。ZP 团队摘要了其中亮点信息,同时也推荐你阅读原文,Enjoy !
Sora
原理
2024-09-14
2024-09-14
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
苹果罕见开源大模型OpenELM权重、训练和评估框架,并升级CVNets为CoreNet,支持更广泛AI任务。OpenELM采用创新架构,参数非均匀分配提升精度,但处理速度较慢。CoreNet拓展至多种AI任务,加速CLIP等模型运行。网友推测发布或与苹果发布会相关。
OpenELM
大模型
2024-09-13
2024-09-13
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
目前主流的序列转换模型都基于复杂的循环神经网络(RNN)或卷积神经网络(CNN),包含编码器和解码器两部分。表现最好的模型还通过注意力机制将编码器和解码器连接起来。我们提出了一种全新的简单网络架构——Transformer,它完全基于注意力机制,摒弃了循环和卷积操作。在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更易于并行化,且训练时间大大减少。我们的模型在WMT 2014英语到德语的翻译任务上达到了28.4的BLEU分数,比现有最佳结果(包括集成模型)高出2 BLEU以上。在WMT 2014英语到法语的翻译任务上,我们的模型在8个GPU上训练了3.5天后,创下了单模型新的最佳BLEU分数记录,达到了41.0分,这仅为文献中最佳模型训练成本的一小部分。 敲黑板,划重点 引出了新的Transformer模型架构,该模型完全基于注意力机制,摒弃了循环和卷积操作。
Transformer
大模型
2024-09-13
2024-09-13
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
面壁智能,一家清华背景的创业公司,通过优化大语言模型,发布了一系列轻量级、高性能的MiniCPM模型,包括多模态MiniCPM-V 2.0、适配端侧场景的MiniCPM-1.2B、长文本模型MiniCPM-2B-128K及MoE架构模型MiniCPM-MoE-8x2B。这些模型在同等成本下实现了卓越效果,并在OCR、长文本理解等任务中表现突出。面壁智能通过独特技术和高效训练模式,挑战了传统大模型“大即好”的观念,认为提升每个参数的效率是核心。公司已获新轮融资,将进一步推动大模型的高效训练和应用落地,为AGI通用基座大模型奠定更坚实基础。
MiniCPM
大模型
2024-09-12
2024-09-12
国产“小钢炮”MiniCPM3-4B:小参数,大能量!
国内AI厂商面壁智能推出MiniCPM 3.0,一款仅4B参数的轻量级模型,实现了GPT-3.5级别能力,在移动端展现强大推理、检索与代码解释功能。从1.0到3.0,模型在结构、性能及功能上显著提升,支持长文本处理、系统提示词及工具调用,打破性能与参数界限。MiniCPM 3.0在多项评测中表现优异,特别是在工具调用能力上接近GPT-4o,成为端侧最强模型之一,并发布RAG三件套提升检索能力。该模型现可下载使用。
MiniCPM3-4B
大模型
2024-09-12
2024-09-12
Meta
如何微调Meta Llama-3 8B
Meta推出了优化的Llama 3系列LLM,包括8B和70B模型,针对对话进行了指令调整,并在基准测试中表现优异。文章详细指导了如何使用Unsloth库和Hugging Face工具对Llama-3 8B模型进行微调、加载数据集、设置参数、训练、测试及保存模型的过程。
Meta
Llama
3
大模型
2024-09-11
2024-09-11
Meta
深度 | Meta AI助手大测评,市值蒸发万亿都因它?
Meta发布新聊天机器人Meta AI,集成于多个应用,但测试显示其回答多依赖网络搜索,缺乏深度和原创性,尽管免费且在一些基本问题上提供合理回应。Meta AI被定位为休闲问题的第一层解决方案,但未能显著超越直接搜索功能,其表现引发对其实用性和价值的讨论。
Meta
AI
测评
2024-09-11
2024-09-11
Agent
用了一个月,终于找到点写 AI Agent 的思路
本文总结了作者在团队中落地AI Agent应用的过程和经验,强调找到可迭代的技术路线的重要性。文章提出了一种服务化AI Agent的设计思路,将AI端负责分析与Agent端负责执行分离,通过API交互。介绍了开发服务化AI Agent的迭代步骤,从预设场景到自主唤醒和AI自主编写Pipeline。同时,提供了解决AI Agent开发中对齐问题的几种方法,包括准确描述、Retry机制、Reflection\Reward机制和数据预选。整体而言,文章展示了在运维领域利用AI Agent实现自动化运维操作的探索和实践。
AI
Agent
Ops
运维工具
2024-09-10
2024-09-10
Python
Python程序混淆和打包exe文件流程和方法
本文介绍了如何对Python代码进行加密和打包成exe文件以保护代码不被轻易使用或篡改。具体步骤包括使用PyObfuscate或在线服务混淆代码,以及使用PyInstaller将Python代码打包成可独立运行的exe文件。此外,还提到了使用Cython将Python代码编译为PYD文件以实现更高级的加密效果,尽管这主要目的是性能优化而非绝对安全加密。
Python
程序
2024-09-10
2024-09-10
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
本文介绍了AI领域快速发展的背景下,Llama3模型及其垂直领域微调的表现,并详细阐述了MoE(专家混合模型)的概念、创建过程以及具体实例操作。文章首先概述了Llama3模型的强大能力及其纯本地部署的方法,然后深入讲解了MoE模型的基本原理,包括稀疏MoE层和Gate Network的作用,以及MoE模型在提高效率和性能方面的优势。接着,文章介绍了frankenMoE这一新型MoE实现方式,并对比了其与真正MoE的区别。最后,文章通过实例展示了如何将Llama3和Phi-3等模型组合成MoE模型,并提供了详细的操作步骤和配置文件说明。整体内容涵盖了MoE模型的理论基础、创建方法及实际应用,旨在帮助读者深入理解和动手实践MoE模型。
MoE
专家混合模型
2024-09-09
2024-09-09
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100