首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· StableDiffusion模型推荐系列(全能型)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 一个让GPT重复自问自答的Prompt
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 一个完整Prompt让ChatGPT自动生成短视频制作脚本
· 来个优秀的开源人脸识别项目!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
我之前介绍过的千问(Qwen)和百川(baichuan)运行要
求
就是8G+显存。
大模型
ChatGLM
京东
多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
先说结论,钉钉子 💡 文章会很长,所以先把最重要的结论放前面,帮你省时间: 传统大厂 / Java技术栈 / 追
求
快速上线: 别犹豫,直接上 JoyAgent
JoyAgent
langchain
LangGraph
大模型
大模型:泛化即智能,压缩即一切
如果你认同Scaling Law定律,你就应该相信通过大量不同的数据来追
求
长期的模型泛化能力比短期的通过巧妙的模型微调更重要,这个想法在机器学习先驱 Rich Sutton 《苦涩的教训》中也有所体现。
大模型
泛化
ChatGPT
这个能写出10W+爆款文章的ChatGPT提示词,你敢用吗?
写作风格要
求
: 1.语气: 文章具有非常生动和情感强烈的语气。
写文章
Stable Diffusion
Stable Diffusion 又是一个史诗级增强、出图效率暴增 5 倍
Diffusion 的出图过程其实是从一张纯噪声图中去噪点,最后变成一张清晰的图片,这大概需要 20-50 步(也就是我们设置的步数) 而 LCM 强调的是不要再一步步迭代了, 直接追
求
“
StableDiffusion
文生图
大模型
大模型是怎么“用工具”的:一文讲透 Function Calling 策略
大模型不是直接算答案,而是生成一个结构化的调用请
求
: { "tool_call": { "name": "add", &
Function
Calling
大模型
大模型
全球下载量最大的AI绘画大模型,更新Lightning极速版
很多AI绘画爱好者对画质的要
求
比较高,这两种技术满足不了。
Stable
Diffusion
大模型
提示词
Sora
快手版Sora「可灵」开放测试:生成超120s视频,更懂物理,复杂运动也能精准建模
网上视频普遍质量低、难以满足训练需
求
。
可灵
快手
文生视频
RAG
LLMOps框架Dify发布Workflow功能,RAG进入自由编排时代(附产品负责人分享PPT )
工作流编排是目前最好的平衡模型能力以及生产需
求
的妥协办法。
RAG
自由编排
Workflow
教程
人人都可以部署微信机器人-小白保姆级教程
视需
求
决定采用哪种方案: 方案一:宝塔Docker部署(小白推荐) 方案二:服务器命令行部署(有编程基础) 准备条件: 1、服务器购买(本地部署方案可以不用服务器,但是不推荐小白使用本地部署方案
大模型
开源
46.6k星星!最强开源AI集合系统,一键部署全网AI工具都能直接用,UI简直是视觉盛宴!
LobeChat精心挑选了一系列高质量的语音选项(如OpenAI Audio、Microsoft Edge Speech),满足来自不同地区和文化背景的用户需
求
。
AI开源
集合
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
上线的推理模型分为三个版本,分别满足不同场景需
求
: § GLM-Z1-AirX(极速版):定位国内最快推理模型,推理速度可达 200 tokens/秒,比常规快 8 倍; § GLM-Z1-Air
GLM模型
智谱
视频
用AI做郭德纲说英文相声的爆款视频(详细教程)
视频文件要
求
: 文件类型包括:mp4、quicktime和webm; 文件大小:不得超过1GB; 视频时长:在30秒到5分钟之间; 视频分辨率:360x360到4096x4096
视频
翻译
语言
RAG
12个RAG常见痛点及解决方案
Hierarchical Retrievers · 通过选择和尝试不同的检索策略可以针对不同的的需
求
进行定制
RAG
大模型
模型压缩:量化、剪枝和蒸馏
BERTBASE 推理所占时间分析 实际推理时间大致与各层所需算力正相关,但Multi-Head Attention 层所需的实际运行耗时远大于其理论值,这是因为 在计算时需要先
求
&
BERT
语言模型
<
...
35
36
37
38
39
40
41
42
43
44
...
>
1
2
4
5
6
7
8
9
100