首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· MCP服务介绍及应用场景报告-来自Manus
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· ComfyUI,你开启XL钥匙打开了新世界
· AI绘画:InstantID 一键运行包和在线Colab脚本!
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· Stable Diffusion 30种采样器全解
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 换脸软件 FaceFusion 保姆级教程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
提示词
推荐一个自动生成复杂提示词的模版:思考链(CoT)如何通过分步推理提升AI任务准确性 | 示例详解
然而,这种提示较为笼统,模型有时无法准确理解具
体
需求,导致结果不尽如人意。
思考链
提示词
Prompt
43个商业价值很高的prompt
将其应用于我需要说服[个人/团
体
]关于[具
体
论点]的情况。"
prompt
大模型
Github上Star数最多的大模型应用基础服务:Dify 深度解读
存在 Function Call/ReAct 两种模式,实现代码在 api/core/rag/retrieval/dataset_retrieval.py 中,具
体
如下所示
Dify
大模型
知识库
语音
Whisper对于中文语音识别与转写中文文本优化的实践(Python3.10)
它提供了各种预训练的模型,包括文本生成、文本分类、命名实
体
识别等多种NLP任务的模型。
Whisper
语音优化
大模型
大模型RAG检索增强问答如何评估:噪声、拒答、反事实、信息整合四大能力评测任务探索
构建数据的整
体
流程如图2所示。
大模型
RAG检索增强
大模型
大模型应用中大部分人真正需要去关心的核心——Embedding
每一种
体
裁都可以编码成一个热向量,然而,这样的向量会非常稀疏,因为书籍通常只属于两个
体
裁。
大模型
LLM
个人从零预训练1B LLM心路历程
具
体
原理如下图所示: 为了防止数据块被意外的重复追加到训练过程中,Steel-LLM还实现了使用hash值检测数据内容是否重复的功能,具
体
使用的是MD5哈希算法。
LLM
训练
RAG
无限长的上下文,也干不掉的RAG
具
体
来说,当相关信息出现在输入上下文的开始或结束时,模型性能最高;而当模型需要从上下文中间提取信息时,性能显著下降,形成了一个U形的性能曲线。
RAG
大模型
Stable Diffusion
Stable Diffusion 和 Midjourney的优劣势比较,如何选择?
Stable Diffusion 和 Midjourney的简单介绍 SD和Mid都属于能够通过prompt(提示词)来进行文生图,或是图生图的方式来生成想要的图片,但在很多具
体
的部分有很大的差异。
文生图
换脸
全新换脸工具ReActor,比roop更强!
整
体
图片不变,只替换我们选中人物的人脸。
ReActor
SD
文生图
Midjourney
Midjourney AI绘画美女提示词分享三
imagine --v 5.2 --s 750 --ar 3:4翻译提示:一个中国女孩,户外,在美丽的花园里,坐在这里或站在这里,一个穿着简单的中国印花布的现代女孩Slim Aarons Style,对称构图,
体
积照明
文生图
Midjourney
大模型
一个万能提问公式,让大模型生成高质量回答
分享一个万能的提问公式 接下来给大家分享,具
体
如何引导 ChatGPT 生成高质量回答:一个好的 Prompt 里面最好涵盖以下五个部分 你是谁(角色扮演):如一个专业的翻译、有多年经验的作家...
提示词
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
具
体
来说,研究者采用了一种分层结构,将两个残差块与一个循环块交替使用,然后再使用一个局部(MQA)注意力块。
transformer
训练
LLM
实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
这就像是捡到了宝,因为这些“反常识”的东西,往往都是作者亲身
体
验后总结出来的。
Ollama
AnythingLLM
阅读
ChatGPT
5 种策略控制 ChatGPT 的输出长度
这时候需要在提示词中指明具
体
的数字并包含一些关键词。
写作
大模型聊天
ChatGPT
<
...
66
67
68
69
70
71
72
73
74
75
...
>
1
2
4
5
6
7
8
9
100