首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 通义千问
· 垂直领域大模型的一些思考及开源模型汇总
· 开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
· 爆肝!超详细的胎教级Midjourney使用教程,看这一篇就够!
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· WSL2安装(详细过程)
· 只需四步就能构建自己的Agent!达摩院新开源框架小白也能用
· [Midjourney]人物镜头拍摄视角大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
真格基金大模型能力测试问题集---基础篇
作为早期投资人,我们经常需要试用和评估新发布的对话式 AI 产品,其中比较常用的方式是通过一些 Prompts,将它们与标志性的 ChatGPT 的输出结果进行直观的横
向
对比。
大模型
训练
中文
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
现在主流的外挂的数据库是
向
量
数据库,因为实现起来比较简单,更复杂的也可以是图数据库、关系型数据库等。
大模型
ChatGPT
ChatGPT「火」烧到游戏行业,有人用其设计关卡、撰写文案、激活NPC,这会给游戏行业带来什么改变?
去把控作品美学方
向
这件事,听起来很悠哉,实际上对人的经验要求是极高的,靠现有机械式的学习,特别是无处不在的游戏拆解,这种不带情感的实用主义分析是很难获得的。
大模型
chatGPT
教程
吴恩达Prompt教程之总结图解
Instruction tuned LLM首先需要从大
量
文本数据中训练处一个Base LLM,随后使用指令和比较好的输入输出去进一步训练(微调、优化)LLM,在训练过程中,输入和输出都是作为指令给到LLM
prompt
教程
吴恩达
Prompt
Prompt 策略:代码库 AI 助手的语义化搜索设计
文本
向
量
化(Vectoring)。
prompt
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
) 重定
向
在nginx重定
向
接口后,存在等待服务器返回的问题(与云服务器流
量
大小也有一定关系) 总结 SSE 技术是一种轻
量
级的实时通信技术,基于
打字机
sse
大模型
RAG
Langchain中改进RAG能力的3种常用的扩展查询方法
使用扩展后的查询将从
向
量
数据库中获取更多相关文档。
检索增强生成
Langchain
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
token的键
向
量
的点积,并经过softmax归一化得到注意力权重,再将这些权重应用于值
向
量
进行加权求和,从而生成每个token的自注意力输出表示。
Transformer
大模型
大模型
国内法律类大模型介绍
nbsp; * 开源数据:LaWGGT数据集(@pengxiao-song:包含法律领域专有词汇、专业名词、高引指令等)、法律各领域词表和词
向
量
法律
大模型
9个范例带你入门langchain
7,API交互(Interacting with APIs): 通过对API文档的阅读,理解API文档并
向
真实世界调用API获取真实数据。
大模型
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
把话说详细 尽
量
多的提供任何重要的详细信息和上下文,说白了,就是把话说明白一点,不要一个太笼统。
OpenAI
Prompt
提示词
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这个过程类似于对文本内容进行指纹化,使其能够在
向
量
空间中被有效地识别和检索。
知识库
RAG检索增强
大模型
大模型时代 AI 技术在金融行业的创新应用
这种变革是自顶
向
下的,是前所未有的。
大模型
金融
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型由多层双
向
的Transformer编码器组成,由12层组成,768隐藏单元,12个head,总参数
量
110M,约1.15亿参数
量
。
大模型
Agent
AI Agent / 智能体观察笔记(上)
如果智能体的表现是根据其在学习和自适应情况下的经验来衡
量
的,那智能体就达到了自主性。
大模型
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100