首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 为你推荐开源项目:Meridian——专属个人情报站!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 剪映克隆声音功能详解:剪映上线5秒“AI克隆音色”,一堆AI公司又要进入慢性死亡了...
· ChatGLM智谱清言
· 火山写作
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· MOSS
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型训练工程那些事
最近
GPT
-4V 和 Gemini 多模态的发布都给足了亮点。
训练工程
大模型
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
提示词
prompt
Transformer
图解 Transformer——功能概览
使得类
GPT
系列这样的模型,不仅能理解和生成自然语言,还能在多种任务上表现出色,如文本摘要、问答、翻译等。
Transformer
大模型
图解
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如BERT、
GPT
来做NLP任务。
停用词
我们需要的不是智能体,而是工作流(5000字保姆式教学)
工作流前与 AI 协作方式: 工作流前,我们大多数人通过 prompt (提示词)与各种大模型交互,比如
GPT
,MJ,可灵,将我们想要的内容(文本,图片,视频)创作出来,明显提高我们创作效率。
工作流
教学
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
OpenAI
Prompt
提示词
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
LLM在构建自主代理人方面具有巨大潜力,例如Auto-
GPT
。
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
AGI
Yann LeCun杨立昆最新观点:AGI不存在
他批评依赖
GPT
等大型语言模型 (LLM) 来实现“超人智能”,理由是它们无法有效理解物理世界、推理或计划。
AGI
大语言模型
观点
Agent
AI Agent / 智能体观察笔记(中)
目前架构所基于的大语言模型是OpenAI的
GPT
,智能体的核心组件包括”记忆、计划和反思“。
大模型
RAG
2023检索增强生成技术(RAG)研究进展
GPT
-4 的问世是一个重要里程碑,它采用了一种将 RAG 与微调技术结合的新方法,同时继续优化预训练策略。
RAG
检索增强
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-4 是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
目前
GPT
提供的context大小在8k左右,最大32K。
LLM
教程
【万字长文-进阶教程】一文带你从入门到精通ChatTTS, 手把手教你固定音色、设置语速、添加停顿词、口头语、笑声!!
对应的函数: def sample_random_speaker(self, ): dim = self.pretrain_models['
gpt
chattts
tts
文生语音
<
...
23
24
25
26
27
28
29
30
31
32
>
1
2
4
5
6
7
8
9
100