首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· ChatGLM智谱清言
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 大模型的研究新方向:混合专家模型(MoE)
· 我去华强北走了一圈,发现这里正被另一种 AI 包围
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· SD入门教程二:文生图基础用法(提示词)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
通过模型扩展和训练数据管
理
方面的创新,Phi-2展现了出色的推
理
和语言
理
解能力,在复杂的基准测试中,Phi-2的性能可以打平比自己大25倍的模型,甚至略占上风。
小语言模型
提示词
提示词框架:Markdown结构法
易于处
理
:与处
理
复杂的格式(如Word或PDF)相比,AI处
理
纯文本格式如Markdown更为简单。
prompt
提示词
工具
AIGC工具提示词技巧
7、在书写提示词时,常用的分隔符包括但不限于以下几种:“|”:用于分隔指令和上下文,有助于模型更好地
理
解何时切换到不同的任务或上下文;“#”:用于分隔指令和上下文,有助于模型更好地
理
解何时切换到不同的任务或上下文
AIGC
提示词
Meta
学术党狂喜,Meta推出OCR神器,PDF、数学公式都能转
在推
理
过程中,使用贪婪解码生成文本。
大模型
OpenAI
最全攻略!OpenAI 发布 GPT-4 使用指南,所有干货全在这
要求:需匿名处
理
,字数 1000 字以上,剧情跌宕起伏。
提示词
prompt
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
兼顾全局的概览信息和局部的细节信息,能够识别和分析图像中的细微特征,看的更清楚,
理
解的更准确。
XVERSE-V
多模态大模型
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
而 ReAct 首次在语言模型中将推
理
和行为决策紧密结合起来,使得语言模型的推
理
能力能够根据知识进行计划安排,行为决策能够与外界工具进行交互。
agent
金融
金融领域Prompt工程方法浅析
相比之下,通用领域的知识和技能往往更具有普遍性,更容易被大众
理
解和掌握。
prompt
大模型
Sora
Stablediffusion3论文下载-确定了Stablediffusion3与Sora的架构是一致的
因此,我们称这种新架构为 MMDiT,意指其处
理
多种模式的能力。
SD
论文
RAG
一文看懂RAG:大语言模型落地应用的未来
这个过程涉及
理
解检索到的内容,并在此基础上生成连贯、相关且信息丰富的文本。
rag
检索增强
ChatGPT
26个超级技巧,让你的ChatGPT直接起飞
目的:将复杂任务分解为简单步骤,使回答更易于
理
解和实施。
ChatGPT
ChatGPT
麦肯锡专家都在用的方法:用ChatGPT速览用户研究领域的 50 个核心概念
同
理
心地图 想象你正在观看一部电影,试图
理
解并体会主人公的情感和动机。
用户
工作
RAG
RAG模型的主要痛点和解决方案
- 构建模型并行训练,以便处
理
更长的文档和增强记忆。
rag
大模型
爬虫
一本Python爬虫的书,凭什么能畅销10W册
它们可以在互联网上自动收集数据,将收集到的数据返回到本地服务器,并对这些数据进行一些处
理
。
爬虫
python
RAG
高级 RAG 技术——图解概览
标准的 Transformer Encoder 模型(例如基于 BERT 的句子转换器)最多处
理
512 个 Token,而像 OpenAI 的 ada-002 则能处
理
更长的序列,例如 8191
RAG
检索
图解
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100