首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
· ComfyUI官方使用手册【官网直译+关键补充】
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 阿里AI黑科技大揭秘:从通义千问到FaceChain,让图片和视频焕发新生!
· Stable Diffusion 加速/优化/升级 优化出图速度
· ComfyUI初学者指南
· Effective Prompt: 编写高质量Prompt的14个有效方法
· 实测:本地跑llama3:70B需要什么配置
· PPT又又有新突破了!智谱AI代码流造PPT
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
CodeShell的原始
训
练
数
据
基于自己爬取的Github
数
据
、Stack和StarCoder
数
据
集
,以及少量高质量的中英文
数
据
。
开源模型
AI编程
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
2 BGE M3-Embedding 2.1
训
练
数
据
构建 M3-Embedding的
训
练
用了非常庞大且多样化的多语言
数
据
集
,
BGE
M3-Embedding
多语音检索
开源
Falcon 180B 开源影响了谁?
据
官方消息,Falcon 180B是使用 Amazon SageMaker 在多达 4096 个 GPU 上同时对 3.5 万亿个 token 进行
训
练
,比Llama 2多了近一倍的
数
据
集
,是最多token
大模型
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
CM3leon是第一个使用从纯文本语言模型改编的方法进行
训
练
的多模态模型,包括大规模检索增强预
训
练
阶段和第二个多任务监督微调(SFT)阶段。
文生图
大模型
中文通用大模型最全汇总
,100G预
训
练
数
据
,涵盖金融、法律、百科的领域
数
据
以及API等。
大模型
开源模型
大模型
AI大模型LLM可以帮助企业做什么?
这些模型采用了自监督学习方法,通过大量无标注文本进行
训
练
。
大模型
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
2.3 ViTPose的
数
据
灵活性 同预
训
练
数
据
的ViTPose在MS COCO的性能对比 在过往的实验中,使用ImageNet对编码器进行预
训
练
已经成为了一种默认设置
ViTPose+
Transformer
身体姿态
RAG
RAG从入门到精通-RAG简介
LLM的知识更新难题 在进入RAG的介绍之前,需要读者首先理解一个概念,LLM的知识更新是很困难的,主要原因在于: 1.LLM的
训
练
数
据
集
是固定的,一旦
训
练
完成就很难再通过继续
训
练
来更新其知识。
rag
大模型
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密
集
层变化的秩分解矩阵来间接
训
练
神经网络中的一些密
集
层,同时保持预先
训
练
的权重不变
开源模型
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
还不过瘾,aiXcoder团队还提出了一个更大的测评代码生成补全
数
据
集
(16000多条来自真实开发场景的
数
据
),做了进一步测评,效果更明显。
aiXcoder-7B
大模型
ChatGPT
AI 绘画新时代:ChatGPT + DALL-E 3
算法效率:尽管 MidJourney 拥有更多可能的
数
据
集
,但其质量相较于 OpenAI 仍显不足。
文生图
图生图
chatGPT
DALL-E
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预
训
练
的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
AI颠覆的第一个体育赛道,来了
在
训
练
和比赛分析方面,AI技术也在发挥着重要作用。
体育
AI
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
介绍 LLaMA 2模型是使用2万亿个tokens和70亿到700亿参
数
预
训
练
和微调的,使其成为功能强大的开源模型之一。
开源模型
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
方法进行解读,百川智能具有深厚的搜索背景,来看看他们是怎么爬RAG的坑的吧~ 总的来说,百川通过长上下文模型(192k)+搜索增强结合的方法来解决知识更新,降低模型幻觉的问题,使得其在5000万tokens的
数
据
集
中取得
RAG
大模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100