首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· GenColor.ai
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 6个最佳开源TTS引擎
· Suno音乐新手指南(手把手完整版教程)
· AI换脸工具:facefusion使用心得
· ChatGLM智谱清言
· MCP服务介绍及应用场景报告-来自Manus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
CLiB中文大模型能力评测榜单(持续更新)
比如信息抽取可以细
分
时间实体抽取能力、地址实体抽取能力…… 海纳百川,整合各类评测榜单,扩充细
分
领域榜单(比如教育领域、医疗领域) 加入更多评测数据,使得评测得
分
越来越有说服力 大模型基本信息
大模型
人工智能评测
开源
46.6k星星!最强开源AI集合系统,一键部署全网AI工具都能直接用,UI简直是视觉盛宴!
后面套壳站出现了,但是套壳站的功能实在是太不好用,而且大部
分
套壳站做的都很粗糙,看着都觉得很难受。
AI开源
集合
GPTs
如何快速构建GPTs个人知识库应用?
GPTs 是一个创新方式,允许任何人根据自己的日常需求、特定任务、工作或家庭生活,定制个性化的 ChatGPT,并且可以将这些定制版本
分
享给他人。
GPTs
知识库
金融
金融行业的AIGC应用
首先,考虑AI大模型对非结构数据的
分
析。
金融
大模型
数据库
百万token上下文窗口也杀不死向量数据库?CPU笑了
如上图展示的那样,数据向量化过程利用了诸如词向量模型和卷
积
神经网络等人工智能技术。
向量数据库
大模型
cpu
开源
昆仑万维携Skywork-13B打造AI新纪元:600GB中文数据集全球开源
技术突破 Skywork-13B系列的成功,得益于昆仑万维在大数据处理和深度学习技术上的深厚
积
累。
Skywork
开源
数据
SeaTable 一站式助力高校多场景数字化升级,打造高效解决方案
数字化校园按照教育阶段的不同可以
分
为:高校数字化校园,中等教育数字化校园,基础教育数字化校园。
大模型
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
多模态能够提升大模型对世界的理解程度,充
分
拓展大模型的使用场景。
大模型
Stable Diffusion
Stable Diffusion AnimateDiff | 最稳定的基于文本生成视频的方法
今天给大伙
分
享一下目前来看比较稳定的文本生视频的插件 AnimateDiff。
动画
animate
sd
Stable Diffusion
Stable Diffusion AnimateDiff | 最稳定的基于文本生成视频的方法!
今天给大伙
分
享一下目前来看比较稳定的文本生视频的插件 AnimateDiff。
文本生成视频
AnimateDiff
歪理大集合,谁也跑不了
这类活好像之前都是雷·库兹韦尔、KK这些人干的,国内还有谁干这部
分
活没...
大模型
开源
9.4k Star!MemGPT:伯克利大学最新开源、将LLM作为操作系统、无限上下文记忆、服务化部署自定义Agent
▲ 在 MemGPT 中,固定上下文 LLM 处理器增强了
分
层内存系统和功能,使其可以管理自己的内存。
MemGPT
大语言模型
大模型
全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线
LongEval 是由加州大学伯克利
分
校联合其他高校发布的针对长窗口模型评测的榜单,主要衡量模型对长窗口内容的记忆和理解能力,模型得
分
越高越好。
Baichuan2
百川
开源
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
而且还会
分
析面相?
MoE大模型
APPa
baichuan2 有什么好的 深挖论文中涉及的知识点
SwiGLU 有一个 "双线性" 层,包含三个参数矩阵,与普通 Transformer 的前馈层有两个矩阵不同,所以我们将隐藏层大小从 4 倍的隐藏层大小减少到 8 倍的隐藏层大小,并四舍五入为 128 的乘
积
。
大模型
<
...
17
18
19
20
21
22
23
24
25
26
...
>
1
2
4
5
6
7
8
9
100