首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 解玄:共相、道、基类与战略
· 超越RAG:揭秘IAG框架如何引领推理问答系统的创新之路
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 如何下载及使用通义千问7B开源大模型
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· AI写作:爆款选题公式+Prompt指令,手把手教你写赚钱的公众号流量主文章
· Stable Diffusion 加速/优化/升级 优化出图速度
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Transformer
TrOCR——基于transformer模型的OCR手写文字识别
最后,我们对编码输出进
行
解码以获得图像中的文本。
OCR
手写
文字识别
开源
语音、视频转文字神器:开源whisper介绍
Whisper是通过收集来自多个数据源(如YouTube、TED、Twitter等)的多语言、多任务的数据进
行
训练的。
人工智能
大模型
wisper
OCR
Selenium+ddddocr | 再也不担心图片验证码
网页中验证码的识别 思路一:验证码截图,进
行
识别 定位到验证码图片的位置,采用screenshot_as_png进
行
截图,通过ddddocr库识别。
Selenium
ddddocr库
开源
8 月份 火火火火 的 GitHub 开源项目
用 Go 写的后端服务运
行
内存仅 8MB,在单实例 100QPS 时,内存也能稳定在 20MB 左右,资源占用极低。
大模型
大模型
大模型:泛化即智能,压缩即一切
为了下文
行
文方便,这里会将本篇文章想要表达的核心思想做一下定义。
大模型
泛化
开源
【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
CosyVoice-instruct-300M:能够生成富有情感表现力的语音,允许通过指令文本进
行
精细调整。
asr
tts
声音
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
字段以
行
为单位,每
行
一个(即以 \n 结尾)。
打字机
sse
大模型
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
MiniCPM-V 2.6 还可以接受视频输入,进
行
对话和提供涵盖时序和空间信息的详细视频描述。
MiniCPM-V
2.6
大模型
ComfyUI
【ComfyUI】爽玩必备,6大插件汇总推荐 !
在这里,你可以下载到你需要的插件,如果插件有新版本,也可以在右边点击“更新”进
行
插件升级。
comfyui
文生图
ComfyUI
【ComfyUI】爽玩必备!6大插件汇总推荐
在这里,你可以下载到你需要的插件,如果插件有新版本,也可以在右边点击“更新”进
行
插件升级。
大模型
RAG
RAG与Long-Context之争—没必要争
为什么RAG是粗排,Long-Context是精排 从计算量角度来看,目前RAG是靠检索系统来进
行
相关内容过滤,一般采用ES、向量匹配等方法,可以理解计算量较小,也就是文本之间交互较少;而Long-Context
RAG
Long-Context
大模型
Stable Diffusion
超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
在学习前我们先回忆一下使用 Web UI 进
行
文生图的时候用到了哪些功能。
comfyui
文生图
教程
最新【Fooocus】支持controlnet!生图效果惊艳,附带保姆级安装教程
安装包,解压后,将网盘中的“SDXL1.0必备模型”文件夹中的两个模型放到FooocusControl\Fooocus\models\checkpoints路径下,如果不将模型放进去,点击运
行
后,会自动在线下载
Fooocus
文生图
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
单张显卡可以支撑的同时聊天人数 从上面的讨论可以看到,使用并发技术,一个A10上运
行
LLaMA2-7B模型,即使有128个并发请求,依然有每秒10个tokens的输出,这意味着可以支持
大模型
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
Turbo,这回主打的就是支持超长上下文,并且把性价比卷出了花儿: § 上下文长度从128k扩展到1M,相当于100万个英文单词或150万个汉字,也就是10部长篇小说、150小时语音记录、30000
行
代码的量
Qwen2.5
开源模型
<
...
88
89
90
91
92
93
94
95
96
97
>
1
2
4
5
6
7
8
9
100