首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· PymuPDF4llm:PDF 提取的革命
· 高效选择:Ollama与LM Studio深度对比
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 十大开源语音识别项目
· 5个最佳开源RPA框架
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
GGUF格式详解
GGUF文件全称是
GPT
-Generated Unified Format,是由Georgi Gerganov定义发布的一种大模型文件格式。
GGUF
大模型
大模型
国产编程大模型CodeGeex
我们使用与
GPT
-2相同的分词器,并将空格处理为特殊标识符,词表大小为50400。
编程
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
以
GPT
-2为基础,采用fill-in-middle(FIM)模式支持代码特有的补齐生成方法,引入Grouped-Query Attention和ROPE位置编码,最终形成了CodeShell高性能且易于扩展上下文窗口的独特架构
开源模型
AI编程
大语言模型应用中的文本分块策略
在某些情况下,例如将
GPT
-4 与 32k 上下文窗口一起使用时,拟合区块可能不是问题。
开源模型
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
· Llama 2-Chat-70B:Llama 2系列模型是一组
GPT
-like
开源模型
大模型
大模型训练工程那些事
最近
GPT
-4V 和 Gemini 多模态的发布都给足了亮点。
训练工程
大模型
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
提示词
prompt
Transformer
图解 Transformer——功能概览
使得类
GPT
系列这样的模型,不仅能理解和生成自然语言,还能在多种任务上表现出色,如文本摘要、问答、翻译等。
Transformer
大模型
图解
LLM
Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· • 多功能性: 支持多种模型(包括 LLaMA 变体、
GPT
-J、MPT 等),并能够生成模型嵌入(Embeddings)和受语法约束的输出。
LLM
服务框架
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
OpenAI 在之前的研究中已经使用
GPT
-3 的变体研究了这种总结书籍的过程的有效性。
OpenAI
Prompt
提示词
停用词(Stop Words)的价值、收集与使用
这几年,我们经常使用字粒度的语言模型,比如BERT、
GPT
来做NLP任务。
停用词
我们需要的不是智能体,而是工作流(5000字保姆式教学)
工作流前与 AI 协作方式: 工作流前,我们大多数人通过 prompt (提示词)与各种大模型交互,比如
GPT
,MJ,可灵,将我们想要的内容(文本,图片,视频)创作出来,明显提高我们创作效率。
工作流
教学
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
LLM在构建自主代理人方面具有巨大潜力,例如Auto-
GPT
。
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
大模型
总结!大模型微调(Tuning)的常见方法
model_name_or_path, return_dict=True) model = get_peft_model(model, peft_config)
GPT
微调
大模型
<
...
23
24
25
26
27
28
29
30
31
32
>
1
2
4
5
6
7
8
9
100