首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· ChatGLM智谱清言
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 大模型的研究新方向:混合专家模型(MoE)
· 我去华强北走了一圈,发现这里正被另一种 AI 包围
· 还在手写Prompt?这几大网站让你秒找大模型提示词!
· SD入门教程二:文生图基础用法(提示词)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
GGUF格式详解
GGUF文件全称是
GPT
-Generated Unified Format,是由Georgi Gerganov定义发布的一种大模型文件格式。
GGUF
大模型
大模型
大模型训练工程那些事
最近
GPT
-4V 和 Gemini 多模态的发布都给足了亮点。
训练工程
大模型
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
提示词
prompt
Transformer
图解 Transformer——功能概览
使得类
GPT
系列这样的模型,不仅能理解和生成自然语言,还能在多种任务上表现出色,如文本摘要、问答、翻译等。
Transformer
大模型
图解
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如BERT、
GPT
来做NLP任务。
停用词
我们需要的不是智能体,而是工作流(5000字保姆式教学)
工作流前与 AI 协作方式: 工作流前,我们大多数人通过 prompt (提示词)与各种大模型交互,比如
GPT
,MJ,可灵,将我们想要的内容(文本,图片,视频)创作出来,明显提高我们创作效率。
工作流
教学
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
OpenAI
Prompt
提示词
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
LLM在构建自主代理人方面具有巨大潜力,例如Auto-
GPT
。
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
他批评依赖
GPT
等大型语言模型 (LLM) 来实现“超人智能”,理由是它们无法有效理解物理世界、推理或计划。
AGI
大语言模型
观点
Agent
AI Agent / 智能体观察笔记(中)
目前架构所基于的大语言模型是OpenAI的
GPT
,智能体的核心组件包括”记忆、计划和反思“。
大模型
RAG
2023检索增强生成技术(RAG)研究进展
GPT
-4 的问世是一个重要里程碑,它采用了一种将 RAG 与微调技术结合的新方法,同时继续优化预训练策略。
RAG
检索增强
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-4 是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
目前
GPT
提供的context大小在8k左右,最大32K。
LLM
<
...
23
24
25
26
27
28
29
30
31
32
>
1
2
4
5
6
7
8
9
100