首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 超实用的通用ChatGPT指令!
· 腾讯开源混元AI绘画大模型
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· Roop参数说明,ROOP->StyleGAN演示!
· ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式
· AIGC工具提示词技巧
· 扣子更新图像流功能,字节版 ComfyUI 来了!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained Transformer(生成式预
训
练
转换器)是一种基于互联网的、可用
数
据
来
训
练
的、文本生成的深度学习模型。
大模型
人工智能
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
CM3leon是第一个使用从纯文本语言模型改编的方法进行
训
练
的多模态模型,包括大规模检索增强预
训
练
阶段和第二个多任务监督微调(SFT)阶段。
文生图
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
还不过瘾,aiXcoder团队还提出了一个更大的测评代码生成补全
数
据
集
(16000多条来自真实开发场景的
数
据
),做了进一步测评,效果更明显。
aiXcoder-7B
大模型
大模型
中文通用大模型最全汇总
,100G预
训
练
数
据
,涵盖金融、法律、百科的领域
数
据
以及API等。
大模型
开源模型
开源
Falcon 180B 开源影响了谁?
据
官方消息,Falcon 180B是使用 Amazon SageMaker 在多达 4096 个 GPU 上同时对 3.5 万亿个 token 进行
训
练
,比Llama 2多了近一倍的
数
据
集
,是最多token
大模型
RAG
RAG从入门到精通-RAG简介
LLM的知识更新难题 在进入RAG的介绍之前,需要读者首先理解一个概念,LLM的知识更新是很困难的,主要原因在于: 1.LLM的
训
练
数
据
集
是固定的,一旦
训
练
完成就很难再通过继续
训
练
来更新其知识。
rag
大模型
大模型
AI大模型LLM可以帮助企业做什么?
这些模型采用了自监督学习方法,通过大量无标注文本进行
训
练
。
大模型
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.3 ViTPose的
数
据
灵活性 同预
训
练
数
据
的ViTPose在MS COCO的性能对比 在过往的实验中,使用ImageNet对编码器进行预
训
练
已经成为了一种默认设置
ViTPose+
Transformer
身体姿态
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密
集
层变化的秩分解矩阵来间接
训
练
神经网络中的一些密
集
层,同时保持预先
训
练
的权重不变
开源模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预
训
练
的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
ChatGPT
AI 绘画新时代:ChatGPT + DALL-E 3
算法效率:尽管 MidJourney 拥有更多可能的
数
据
集
,但其质量相较于 OpenAI 仍显不足。
文生图
图生图
chatGPT
DALL-E
AI颠覆的第一个体育赛道,来了
在
训
练
和比赛分析方面,AI技术也在发挥着重要作用。
体育
AI
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决知识更新,降低模型幻觉的问题,使得其在5000万tokens的
数
据
集
中取得
RAG
大模型
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
介绍 LLaMA 2模型是使用2万亿个tokens和70亿到700亿参
数
预
训
练
和微调的,使其成为功能强大的开源模型之一。
开源模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
训
练
数
据
以英文为主,不包含中韩日文,所有
训
练
数
据
都是开源的,分词之后大约有1400B的tokens。
大模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100