首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· GenColor.ai
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· ComfyUI 基础教程(一)环境部署和插件安装
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· Suno音乐新手指南(手把手完整版教程)
· Midjourney AI绘画美女提示词分享一
· 火山写作
· 13个神级Chatgpt指令,助你小说丝滑过审
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
会“追问”的Agent,大模型知识库另类实践
但在提升回答的准确度方面,该方案存在一些致命的缺陷,通过分解Langchain的
架
构
,我们可以看到(图2): 图2: Langchain + Vectorstore + LLMs 首先,在第2步
大模型
大模型
金融行业的开源AI大模型
因为受到监管的约束,大型金融机
构
的产品和运作模式也会比较趋同,一套通用的开源大模型也许可以覆盖不同机
构
90%的需求。
开源
大模型
基于Ollama本地部署Llama3指南!
模型
架
构
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer
架
构
。
LLama3
ollama
大模型
llm-action:让天下没有难学的大模型
配套代码 HuggingFace PEFT LLM分布式训练并行技术 近年来,随着Transformer、MOE
架
构
的提出
大模型
LLM
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?
论文方法 方法描述 本文介绍了使用RAG(Retrieve and Generate)框
架
来解决开放域问答问题的方法。
RAG
检索增强
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
这篇论文有两个关键的解决方案是最值得我们去关注的: 1,生成式代理的
架
构
代理感知它们的环境,并将所有感知保存在称为记忆流的全面记录中
开源模型
开源
最新最全的开源中文大语言模型列表
ChatRWKV: 地址:https://github.com/BlinkDL/ChatRWKV 简介:开源了一系列基于RWKV
架
构
的Chat模型(包括英文和中文
大模型
Transformer
如何最简单、通俗地理解Transformer?
Transformer
架
构
内部应用的注意力称为自注意力(self-attention)。
Transformer
大模型
万字长文-大语言模型指令调优综述
指令的作用是约束模型的输出,使其符合预期的响应特征或领域知识,为人类干预模型的行为提供一个通道;(3) IT 具有计算效率,可以帮助 LLMs快速适应特定领域,而无需大量的再训练或
架
构
更改。
大语言模型
Sora
OpenAI视频模型Sora的推理生成成本多高?
虽然 Diffusion Transformer 和 LLM 的 Autoregression Model
架
构
不同, 但均为 Transformer
架
构
: Diffusion Transformer
Sora
推理
算力
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
meta-llama/Llama-2-7b-hf meta-llama/Llama-2-13b-hf meta-llama/Llama-2-70b-hf 输入:仅输入文本 输出:仅生成文本 模型
架
构
开源模型
baichuan2 有什么好的 深挖论文中涉及的知识点
在下面的章节中,将详细介绍对 vanilla Transformer
架
构
和训练方法所做的详细修改。
大模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
架
构
层面,Llama 3选择了经典的仅解码(decoder-only)式Transformer
架
构
,采用包含128K token词汇表的分词器。
meta
llama3
RAG
无限长的上下文,也干不掉的RAG
模型
架
构
、查询感知上下文化和指令微调的影响 研究还探讨了模型
架
构
(仅解码器vs.编码器-解码器)、查询感知上下文化和指令微调对模型使用上下文的影响。
RAG
大模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
prompt连续向量,且不固定,同时使用LSTM建模prompt向量之间的关联性 【P-tuning与Prefix-tuning】: Prefix-tuning仅针对NLG任务生效,服务于GPT
架
构
训练
微调
<
...
15
16
17
18
19
20
21
22
23
24
...
>
1
2
4
5
6
7
8
9
100