首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
· PPT又又有新突破了!智谱AI代码流造PPT
· 做大模型需要的环境设置
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· Suno音乐新手指南(手把手完整版教程)
· 剪映专业版智能补帧
· 换脸软件 FaceFusion 保姆级教程
· Playground v2:超越SDXL的模型来了,优于SDXL 2.5倍!
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
一键复用!Stable Diffusion WebUI 神仙插件 LightFlow
今天为大家推荐一个非常好用的 Stable Diffusion WebUI 插件 LightFlow,它可以将一张图像的生成参数和相关设置保存为文件,这样无论是复用图像生成
信
息还是分享给别人都非常方便
SD
流程
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
我们的用例重点是在特定的文档上回答问题,仅依赖于文档中的
信
息来生成准确和符合上下文的答案。
知识库
langchain
RAG
如何提高RAG 的效果
下面笔者会根据实践的经验和收集到的
信
息进行汇总并记录下来。
RAG
大模型
大模型
AI+智能客服:大模型可落地的最成熟场景之一
65%,提升浪潮
信
息整体服务效率达160%。
ai
客服
阿里
阿里RAG新框架R4:增强检索器-重排序-响应器,5个知识密集任务上都超过Self-RAG等!
大型语言模型(LLMs)在生成文本时可能会产生错误
信
息,即“幻觉”问题。
RAG
检索
大型语言模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
3)、指令
微
调(Instruction Fine-tuning):通过对模型进行额外的
微
调,使其更好地理解特定的指令或命令。
知识库
RAG检索增强
提示词
18种 DALL-E 3 炫酷的文字效果和提示词
在图片上添加文字不仅可以传达
信
息,还可以吸引观众的注意力。
DALL-E
3
提示词
文生图
大模型
大模型下半场,关于Agent的几个疑问
5.4亿至3.6亿年前,海洋生物破发,相比于以前的单细胞或简单多细胞生物,三叶
虫
、海绵和脊索动物等更高层次的智能诞生了。
大模型
AIGC
聊聊 AIGC 一些拧巴的现状
今天,整理一下我得到的一些碎片化
信
息和观点分享给大家,希望有用。
开源模型
大模型
CLiB中文大模型能力评测榜单(持续更新)
支持多维度能力评测,包括分类能力、
信
息抽取能力、阅读理解能力、表格问答能力。
大模型
人工智能评测
写作
提高写作能力的90个prompt大全
无论是创意写作、
信
息检索还是解决问题,任务定义的特异性都是至关重要的。
prompt
写作
Prompt
什么是prompt(人话版)
相
信
很多朋友已经在各类教程中看到过prompt的概念了,不过你应该注意的是,“概念”并不是让初学者理解用的,而是通用的、准确描述定义用的,所以它通常比较“长难句”,也不是很好记忆和理解。
prompt
停用词(Stop Words)的价值、收集与使用
的
信
息量低呢?
停用词
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预训练阶段、
微
调阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预训练大语言模型?
大模型
大模型
大模型实践总结
对于以Transformer、MOE结构为代表的大模型来说,传统的单机单卡训练模式肯定不能满足上千(万)亿级参数的模型训练,这时候我们就需要解决内存墙和通
信
墙等一系列问题,在单机多卡或者多机多卡进行模型训练
大模型
训练
<
...
11
12
13
14
15
16
17
18
19
20
...
>
1
2
4
5
6
7
8
9
100