首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Math.now
· GPT4o.so
· Westlake - Omni:西湖心辰推出的全球首个开源的中文情感端 - 端语音交互大模型
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 技术爆炸!AI一图换脸新王者,Instant ID保姆级安装与使用测评
· 豆包MarsCode——免费AI编程助手
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
混合专家模型 (MoE) 详解
这意味着并非所有参数都会在处理每个输入时被激活或使用,而是根据输入的特定特征或需求,只有部分参数集合被调用和
运
行。
MoE大模型
一文彻底搞懂多模态 - 多模态推理
三、基于表示学习: 将实体和关系嵌入到低维向量空间,通过向量
运
算和相似性度量进行推理。
多模态推理
大模型
阿里
阿里最近推出AI项目的动作太过频繁,脑子跟不上了,事出反常必有妖,盘点一下
上传一段视频,AI 自动识别视频中的
运
动主体人物,并一键替换成有趣的 3D 角色模型,生成与众不同的 AI 视频。
阿里
大模型
大模型
大模型应用的10种架构模式
尽管大型语言模型的
运
行成本较高,但它能够成功返回更多种类型查询的答案。
大模型
架构
ChatGLM
完整ChatGLM3部署教程,支持手机和车载平台部署
Interpreter 还需要安装 Jupyter 内核: ipython kernel install --name chatglm3-demo --user
运
行
ChatGLM3
大模型
将任意文本转换为知识图谱
幸
运
的是,有大量的 Python 库可用于生成图形可视化。
知识图谱
转换
文本
开源
【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
"iic/SenseVoiceSmall" m, kwargs = SenseVoiceSmall.from_pretrained(model=model_dir)
运
行效果
asr
tts
声音
教程
openpose原理及安装教程(姿态识别)
运
行OpenPose提供的示例程序或自行集成到自己的项目中。
行为识别
姿态识别
数字人
开源!数字人资源大集合!
[ PDF ] [项目] 略 (穿衣)人体
运
动生成 HumanRF:
运
动中人类的高保真神经辐射场。
数字人
开源
大模型
语言大模型100K上下文窗口的秘诀
为使GPU执行一个
运
算,输入数据必须在名为SRAM的“快速(quick)”内存中。
大模型
数据库
百万token上下文窗口也杀不死向量数据库?CPU笑了
如此一来,除了
运
算速度之外,内存访问速度也很容易成为向量数据库
运
行中的瓶颈所在。
向量数据库
大模型
cpu
换脸
10秒换脸,一张图片够了!SD Roop插件教程
\SD安装文件夹\py310,在py310目录的地址栏,输入cmd唤起命令输入界面,请注意,整合包的同学不要直接在别处
运
行唤起cmd。
AI换脸
开源
一个专业级 AI 聊天浏览器,开源了!
使用 NPM 进行安装与
运
行: 2.
开源
大模型聊天
ChatGPT
Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
解压缩,进入目录,cmd,在命令行
运
行 code .在vs code的terminal中
运
行 #https://hub.docker.com/r/chromadb/chroma/tags
ChatOllama
安装
开源
8 月份 火火火火 的 GitHub 开源项目
用 Go 写的后端服务
运
行内存仅 8MB,在单实例 100QPS 时,内存也能稳定在 20MB 左右,资源占用极低。
大模型
<
...
21
22
23
24
25
26
27
28
29
30
...
>
1
2
4
5
6
7
8
9
100