首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 大模型评测新思路:弱智吧精华问题大全
· 「长文」可能是目前最全的LangChain AI资源库之一
· Suno音乐新手指南(手把手完整版教程)
· ChatGLM智谱清言
· 阿里Qwen3系列模型惊艳亮相
· 国产视频制作之光-可灵:提示词大全整理
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
工具
RAG 与 Finetuning,谁是提升 LLM 的最佳工具?
其中每一个都可能需要单独的博客
文
章,因此我们只能在本
文
的范围内简要讨
论
它们。
训练
开源
构建开源多模态RAG系统
本质上,RAG通过允许模型从外部来源动态检索实时信息,增强了
AI
响应的特异性。
RAG
大模型
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
最近一直在忙着研究这些开源的大模型,
写
文
的频率慢了点。
开源模型
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
、 “做个自我介绍”、 “你好” Llama3 会用中
文
回答 : “我是
AI
在手” (如下图) 1、环境安装 # nvidia 显卡 显存16G
Llama3
对话问答模型
大模型
大模型应用的10种架构模式
面对新兴技术,例如生成式
AI
,我们尚缺乏成熟的设计模式来支撑这些解决方案。
大模型
架构
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
比如通过检索路由确定最适合当前查询的检索策略;摘要和重
写
可以优化查询表达,使其更加清晰;置信度判断则帮助系统预估答案的可靠性。
知识库
RAG检索增强
开源
向量数据库简介和5个常用的开源项目介绍
本
文
旨在全面介绍向量数据库,并介绍2023年可用的最佳向量数据库。
开源模型
大模型
大模型:泛化即智能,压缩即一切
在《
论
语》中曾有言,孔子问子贡说,你与颜回比如何?
大模型
泛化
ChatGPT
一个小妙招从Prompt菜鸟秒变专家!加州大学提出PromptAgent,帮你高效使用ChatGPT!
论
文
:
论
文
链接: https://arxiv.org/pdf/2310.16427.pdf 先看一下例子感受一下有多厉害。
PromptAgent
大模型
盘点来自工业界的GPU共享方案
本
文
将总结目前有公开PR的、来自工业界的部分GPU容器计算共享方案,看看工业界对GPU共享的定位和需求。
大模型
数据库
颠覆数据存储方式:向量数据库的威力
原
文
:https://zhuanlan.zhihu.com/p/627829073 向量数据库是一种新型的数据库类型,它与传统的关系型数据库和
文
档型数据库不同。
编程
数据库
微调
微调大型语言模型-核心思想和方法介绍
上下
文
学习和索引 自 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到在一般
文
本语料库上预训练的生成式大型语言模型(LLM)能够进行上下
文
学习,而这并不能如果我们想要执行
大模型
训练
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
希望能通过这篇
文
章让各位有能力简单判断自己的电脑大概能跑什么样的模型。
大语言模型
运行
大模型
10个大模型私有化需要关注的问题
本
文
将探讨十个在私有化过程中需要关注的重要问题。
开源模型
OpenAI
whisper-live:OpenAI Whisper模型的近实时实现
该项目是一个实时转录应用程序,使用 OpenAI Whisper 模型将语音输入转换为
文
本输出。
OpenAI
Whisper
大模型
<
...
78
79
80
81
82
83
84
85
86
87
...
>
1
2
4
5
6
7
8
9
100