首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 国内厂商语音识别与Whisper评测:现状与概况对比
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· 20个ChatGPT超实用的提示词(Prompt)
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
Phi-2所使用的训练
数
据
,包含合成
数
据
集,——专门用于教授模型常识推理和一般知识(科学、日常活动和心智理论等)。
小语言模型
微调
微调大型语言模型-核心思想和方法介绍
在此过程中,索引模块将文档或网站
分
解为更小的部
分
,将它们转换为可存储在矢量
数
据
库中的矢量。
大模型
训练
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
这其实说明从web-scale的
数
据
中学习是可以超过高质量的人工标注的NLP
数
据
集的。
OpenAI
自然语言监督
baichuan2 有什么好的 深挖论文中涉及的知识点
然后,我们描述了预训练
数
据
和
数
据
处理方法。
大模型
LLM
Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
数
据
集对齐方法:是从真实世界的人口
数
据
集中获取代理的配置文件信息,比如通过抽取人口调查
数
据
组织成自然语言描述。
大模型
LLM
Agent
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
外挂
数
据
库是解决模型“胡说八道”的有效手段。
大模型
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
因此,使用和来改变标准Transformer层的配置会导致模型中参
数
的非均匀
分
配。
OpenELM
大模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
在一个 pod 中,谷歌对 7B 模型使用 16 路模型
分
片和 16 路
数
据
复制。
开源模型
Gemma
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
数
据
上看,可灵支持生成长达2
分
钟的30fps的超长视频,
分
辨率高达1080p,且支持多种宽高比。
可灵
快手
文生视频
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
并且推出即为开源SOTA: Meta官方
数
据
显示,Llama 3 8B和70B版本在各自参
数
规模上超越一众对手。
meta
llama3
大模型
大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免
逆转诅咒显示出基本无法泛化到训练
数
据
之外。
大模型
SDXL
第3期 SDXL和SD的10大区别!你知道几个?
1、模型参
数
更大。
文生图
RAG
RAG从入门到精通-RAG简介
其核心手段是利用外挂于LLM的知识
数
据
库(通常使用向量
数
据
库)存储未在训练
数
据
集中出现的新
数
据
、领域
数
据
等。
rag
大模型
【进阶】-文生图术语解释
关于 损失函
数
(Archive) 潜在空间# 压缩
数
据
的表示,其中相似的
数
据
点在空间上更靠近在一起。
文生图
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等
数
据
集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
知识库
<
...
62
63
64
65
66
67
68
69
70
71
...
>
1
2
4
5
6
7
8
9
100