首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Cursor 0.50 版本:一场惊艳的编程体验升级之旅
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 阿里Qwen3系列模型惊艳亮相
· Cursor设计主管分享AI写出高质量代码的12个超绝妙招
· Xmind Copilot
· 大模型推理能力增强方法总结
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· Deepseek-V2技术报告解读!全网最细!
· 混合专家模型 (MoE) 详解
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
预训练对话大模型深度解读
2、生成式对话模型发展历史 目前 AI 的发展已经历三个时代: 基于规则时代,1966 年计算机发展之初,MIT 的教授基于规则研发了用于心理治疗的 Eliza,有点
像
我们的”正则表达式“;
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
例如,sentence-transformer~[1]~模型在单个句子上工作得很好,但
像
text- embedt-ada -002~[2]~这样的模型在包含256或512个tokens的块上表现得更好。
RAG
大模型
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
(3) 构建用户画
像
,根据用户属性调整检索策略。
大语言模型
RAG检索增强
职场及工作中常用的方法论总结
第一种方式从多个维度对客户进行分类,用户画
像
过于具体,在实际运营中不够通用; 第二种运用多变量综合评价和聚类分析的思想,对客户的分类更加科学。
工作
大模型
关于大模型驱动的AI智能体Agent的一些思考
个人观点: 我认为LLM
像
人脑一样需要记忆的是概念以及运用概念的能力(概念组合的方法,概念拆解的方法,概念转化的方法),LLM中的token=人脑中的概念,LLM的网络结构MLP+attention机制
大模型
Agent
深度好文,Agent盛行前传
概括能力通常是指可以整理总结过去的成功经验并且应用在新的场景上,而由于世界里状态的多变和复杂,对概括能力的需求一直巨大,比如一只以水果为主要食物的动物也许每天都会碰到一棵新的树,它也许需要在环境里快速适应,
像
受伤
Agent
大模型
大模型
面向知识图谱的大模型应用
3.6 集成多样的异构数据源 planner 可以集成额外的数据源,如 SQL 数据库,图
像
和互联网搜索引擎,并把它们作为模块化的工具可以访问 LLM。
知识图谱
大模型
开源
清华&面壁开源新一代主动Agent交互范式!让AI从被命令到主动帮助
它具备"眼中有活、主动帮助"的主观能动性,能够主动观察环境、预判用户需求,
像
"肚子里的蛔虫"一样,在未被明确指示的情况下主动帮用户排忧解难,主动 Agent 实现了从"被命令"到"会思考"的质的飞跃。
Agent
大模型
LangChain 完整指南:使用大语言模型构建强大的应用程序
或者,如果您更喜欢在 Jupyter notebook 或 Python 脚本中工作,您可以
像
这样设置环境变量: import os os .environ[ "OPENAI_API_KEY"
langchain
大模型
LLM
2023年LLM如何入门?请看这篇综述!
实例格式化是指将数据实例(如文本、图
像
、音频等)处理成一种特定的格式,以便它们可以被用于机器学习算法的输入。
大模型
大模型
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
单一模态问题:尽管 LLM 可以帮助机器人或智能体理解指令和增添高层规划能力,但它们却无法直接学习图
像
、音频或其它感官模态,这就限制了它们的应用。
开源模型
大模型
推荐智能体:利用大模型进行交互式推荐
作为具有一般智能和自然语言处理能力的模型,LLM不可避免地缺乏特定领域的技能,如编辑图
像
或回答专业领域的问题。
大语言模型
推荐
混合专家模型 (MoE) 详解
Switch Transformer 论文中的 Switch Transformer Layer 就
像
在 GShard 中一样,作者用混合专家模型 (MoE) 层替换了前馈网络 (FFN)
MoE大模型
AI绘画当前的应用场景有哪些?
4.5 跑图完成 上述参数设置完成后,跑图即可,剩下的细节之处本教程就不做演示了,与第一个案例一样,细节之处有问题的地方使用【局部重绘】修正即可,或者是PS处理下(话说PS Beta好
像
不能用了 )
文生图
大模型
HalluQA: 测测中文大模型有没有一本正经胡说八道
这类问题往往是SFT或者RLHF容易被忽视的问题,因为这些问题本身可能存在矛盾,不
像
是通常会出现的用户Query(例如“弱智吧”问题之类的段子),因此很容易在alignment阶段被忽视。
大模型
中文大模型
幻觉
<
...
63
64
65
66
67
68
69
70
71
72
>
1
2
4
5
6
7
8
9
100