首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 剪映专业版智能补帧
· Suno音乐新手指南(手把手完整版教程)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI声音克隆 | 最全最简教程(权威版)
· 微信中和 AI 进行对话
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· RPA机器人实现网页自动翻页功能
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· 20个常见AI绘画工具大汇总(含免费版哦~)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
动作识别模型有哪些
这篇
文
章主要有以下三个贡献点。
动作识别
模型
RAG
简单提升RAG的10种方法
当这种情况发
生
时,LLM执行的
生
成步骤可能不是最佳的。
RAG
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
而keyword LLM真的让我眼前一亮的,之前对关键词抽取的理解,一直是从
文
本中找到正确的词
语
,在传统检索中使用同义词等方法来提高检索效果。
垂直领域
大模型
开源模型
汇总
大模型
大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免
近日,一个叫「逆转诅咒」(Reversal Curse)的新概念成为了 AI 圈热议的话题,现在流行的所有大
语
言模型全部都中招了。
大模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
在开始使用Gemma开源大
语
言模型(LLM)前,我们先了解下Gemma以及配套的工具。
ollama
gemma
qwen
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
本
文
将为大家详细介绍。
HAI-Chat
RLHF
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
▲图1.由Stable Diffusion3
生
成。
OpenELM
大模型
Transformer
图解 transformer——逐层介绍
使用只有一个样本的训练数据,其中包括一个输入序列(英
语
的 "You are welcome")和一个目标序列(西班牙
语
的 "De nada")。
Transformer
大模型
图解
OpenAI
震惊!OpenAI发布Meta-Prompt,未来不再需要提示词。
就像是给你配了个24小时专属AI导师,帮你把"蹩脚英
语
"秒变"莎士比亚"!
Meta-Prompt
提示词
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!
这个模型提供两种不同上下
文
长度的版本:一种是4k tokens,另一种则是128k tokens,它们通过经过精心设计的预训练和指令调整流程,使得Phi-3 Mini能够更加精确地把握人类的
语
言习惯
Phi-3
Mini
开源模型
微软
Prompt
掌握Prompt的6心法
俗话说"Talk is cheap, show me the code"(言
语
是苍白的,给我看实例)。
prompt
写作
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
这时,循环
语
言模型成为一种替代方案,它们可以将整个序列压缩为固定大小的隐藏状态,并迭代更新。
transformer
训练
提示词
你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
注意事项:请确保翻译内容无
语
法错误,并保持原
文
的意思。
大模型
提示词
大模型
国内法律类大模型介绍
(53k)、中
文
法律指令(4k)、中
文
通用对话(55k)、中
文
法律对话(54k)、中
文
法律问答数据(50k) * 包含模块:
法律
大模型
AI知识库总是不准?教你无脑用GPT整理结构化数据集...
比如典型的Langchain-ChatGLM的架构图,加载
文
件 -> 读取
文
本 ->
文
本分割 ->
文
本向量化 -> 问句向量化 -> 在
文
本向量中匹配出与问句向量最相似的
GPT
<
...
82
83
84
85
86
87
88
89
90
91
...
>
1
2
4
5
6
7
8
9
100