首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 好用的令人发指的图生图,你就告诉我抄哪个吧!—StableDiffusion 第三弹
· Suno音乐新手指南(手把手完整版教程)
· 技术爆炸!AI一图换脸新王者,Instant ID保姆级安装与使用测评
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· GPT4o.so
· videomaker.me
· Math.now
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
2 BGE M3-Embedding 2.1
训
练
数
据
构建 M3-Embedding的
训
练
用了非常庞大且多样化的多语言
数
据
集
,
BGE
M3-Embedding
多语音检索
RAG
RAG从入门到精通-RAG简介
LLM的知识更新难题 在进入RAG的介绍之前,需要读者首先理解一个概念,LLM的知识更新是很困难的,主要原因在于: 1.LLM的
训
练
数
据
集
是固定的,一旦
训
练
完成就很难再通过继续
训
练
来更新其知识。
rag
大模型
大模型
和大模型相关的一些术语(持续更新中)
GPT的全称,是Generative Pre-Trained Transformer(生成式预
训
练
转换器)是一种基于互联网的、可用
数
据
来
训
练
的、文本生成的深度学习模型。
大模型
人工智能
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.3 ViTPose的
数
据
灵活性 同预
训
练
数
据
的ViTPose在MS COCO的性能对比 在过往的实验中,使用ImageNet对编码器进行预
训
练
已经成为了一种默认设置
ViTPose+
Transformer
身体姿态
大模型
AI大模型LLM可以帮助企业做什么?
这些模型采用了自监督学习方法,通过大量无标注文本进行
训
练
。
大模型
开源
Falcon 180B 开源影响了谁?
据
官方消息,Falcon 180B是使用 Amazon SageMaker 在多达 4096 个 GPU 上同时对 3.5 万亿个 token 进行
训
练
,比Llama 2多了近一倍的
数
据
集
,是最多token
大模型
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
CM3leon是第一个使用从纯文本语言模型改编的方法进行
训
练
的多模态模型,包括大规模检索增强预
训
练
阶段和第二个多任务监督微调(SFT)阶段。
文生图
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密
集
层变化的秩分解矩阵来间接
训
练
神经网络中的一些密
集
层,同时保持预先
训
练
的权重不变
开源模型
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
还不过瘾,aiXcoder团队还提出了一个更大的测评代码生成补全
数
据
集
(16000多条来自真实开发场景的
数
据
),做了进一步测评,效果更明显。
aiXcoder-7B
大模型
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预
训
练
的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
ChatGPT
AI 绘画新时代:ChatGPT + DALL-E 3
算法效率:尽管 MidJourney 拥有更多可能的
数
据
集
,但其质量相较于 OpenAI 仍显不足。
文生图
图生图
chatGPT
DALL-E
AI颠覆的第一个体育赛道,来了
在
训
练
和比赛分析方面,AI技术也在发挥着重要作用。
体育
AI
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
训
练
数
据
以英文为主,不包含中韩日文,所有
训
练
数
据
都是开源的,分词之后大约有1400B的tokens。
大模型
大模型
国内法律类大模型介绍
:论文、新闻、法规、司法解释、法律咨询、法考题、判决文书组成,随后经过清洗、
数
据
增强等来构造
训
练
数
据
* 算力:multiple
法律
大模型
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
介绍 LLaMA 2模型是使用2万亿个tokens和70亿到700亿参
数
预
训
练
和微调的,使其成为功能强大的开源模型之一。
开源模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100