首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 聊天机器人阅读 PDF?用这25个提示词技巧,亲测有效!(ChatGPT & Claude 2)
· SDXL模型lora训练参数详细设置,显存占用22G,不用修脸原图直出
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Suno音乐新手指南(手把手完整版教程)
· 盘点字节跳动最新的AI应用
· 用so-vits-svc-4.1进行音色转换的极简教程!
· 换脸软件 FaceFusion 保姆级教程
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
· 【工具书】基于角色和思维链的人工智能中文Prompt提示词,涵盖几乎所有场景
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
llama_index.callbacks import CallbackManager, TokenCountingHandler import tiktoken OPENAI_MODEL_NAME = "
gpt
LLMLingua
LlamaIndex
开源框架
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这个编码模型可以是预训练的语言模型,例如BERT、
GPT
等。
知识库
RAG检索增强
开源
Chinese-LLM开源中文大语言模型合集
地址:https://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila 简介:由智源研究院发布,Aquila语言大模型在技术上继承了
GPT
大模型
中文
大模型
大模型应用的10种架构模式
更大的模型(如
GPT
-4)负责理解上下文,并将其分解为特定的任务或信息请求,这些任务或信息请求被传递给更小的代理。
大模型
架构
ChatGPT
如何使用ChatGPT一天搞定论文初稿
在
GPT
刚刚问世的时候,因为它的胡编特性导致在学术写作场景中备受诟病,但是随着现在整个生态的发展,借助插件等知识增强手段已经很大程度上解决幻觉问题,基本上确保了每个引用都有出处  
ChatGPT
写作
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
NVIDIA GTX
GPT
主要用的就是显存。
大语言模型
运行
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
针对目前几乎没有公开语音多模态指令数据这一问题,基于公开数据集 WizardLM [9]、ShareGPT [10]、
GPT
-4-LLM [11] 构造语音 - 文本多模态指令数据集 LLaSM-Audio-Instructions
开源模型
大模型
国外报告90%的AI类产品公司已经实现盈利,而国内大模型和AIGC的访谈说太卷了
名的产品从模型的使用上可以分为三种: 1.训练自己的专有模型, 2.微调现有模型, 3.在现有模型之上构建消费者 UI(例如,“
GPT
大模型
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
GPT
-3 的发布给了大家非常明确的信号,即大型模型真正具备了实际可用性。
智谱
AI
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
模型结构上,与
GPT
相同,LLaMA采用了causal decoder-only的transformer模型结构。
大模型
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
但在各项基准测试下,XAgent表现都完全优于AutoGPT、
GPT
-4。
ChatGPT
智能体
Agent
大模型
领域大模型LLM训练Trick
不过
GPT
系列大模型的预训练和微调,从实现方式上来讲是没有什么差别的,都是用decoder only的语言模型进行训练并更新参数,如果样本数量比较少,没有大量的篇章文档数据,个人认为只进行微调也能够注入知识
垂直
训练
大模型
Stable Diffusion
AI绘画巅峰对决:Stable Diffusion 3与DALL·E 3原理深度比较
DALL-E 3 用Dataset Recaptioning技术,重新生成图像标题,这些训练语料都是由
GPT
-4 Vision生成的。
Stable
Diffusion
DALL·E
baichuan2 有什么好的 深挖论文中涉及的知识点
语言模型的规模已经从数百万参数(如 ELMo、
GPT
-1)增长到了数十亿甚至数千亿参数,例如
GPT
-3、PaLM 和 Switch Transformers。
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100