首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Kie.ai
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 从专业ASR到统一音频LLM:七大顶尖模型的深度对比分析
· 盘点来自工业界的GPU共享方案
· 造梦师手记:C站最受欢迎的大模型推出了SFW版
· 微软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
· 国产视频制作之光-可灵:提示词大全整理
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 【AI代理】多代理模式之多任务分配&信息传递
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
全面理解Stable Diffusion采样器
所以这里先提供一个
总
览的视角,帮助大家对各种采样器有一个大致的了解。
绘画
采样器
SD
Python
LangChain手册(Python版)11模块:提示模板
为了个性化 LLM 应用程序,您可能希望将 LLM 与有关特定用户的最新信息
结
合起来。
大模型
人工智能
目前有哪些比较成功的人工智能应用?
广泛共识: 在学术界和工
业
界都得到了广泛认可。
生成式AI
独家:4259款AI产品关键指标排名与分析
无论您是投资者、创
业
者、AI 从
业
人员还是希望提高工作效率的普通用户,这份报告都将为您剥去迷雾,揭示哪些AI产品真正值得您的关注。
生成式AI
LLM
Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
除了这些基础知识,我认为最有价值的部分在于,它
总
结
了基于大型语言模型(LLM)的Agent的架构,使我们能够按照一定的标准范式去设计自己的Agent。
大模型
LLM
Agent
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
以下测试
结
果也是魔法哥的主观判断,请谨慎看待: · Moonshot API 的输出速度比不上 GPT-3.5 Turbo,但明显比 GPT-4 Turbo 要快一些。
Kimi
Chat
大模型
API
理解 o3 及其技术分析
目前o1还有两个无法解释的地方: o1模型API不能控制temperature o1的reasoning token
总
是64的倍数 2.3、多路推理方式的推测(1)
o3
技术分析
大模型
大模型是怎么“用工具”的:一文讲透 Function Calling 策略
注意几点: 名字不能模糊(get_weather
总
比tool_1好) 描述要清晰,别让模型靠猜 第二步:生成调用指令 用户提问:“33加77等于多少?”
Function
Calling
大模型
Stable Diffusion
万字长篇!超全Stable Diffusion AI绘画参数及原理详解
图5-11 UniPC采样器的图像质量 图5-12 一个有关所有采样器的简单对照(来源:https://stable-diffusion-art.com/samplers/) 5.4
总
结
与建议
文生图
数字人
教你用StableDiffusion设计AI数字人
那么
结
果如何呢?
文生图
GPTs
如何快速构建GPTs个人知识库应用?
制作过程就像进
行
一场对话,输入您的指令和额外知识,选择它的功能,例如网页搜索、图像制作或数据分析。
GPTs
知识库
模型压缩:量化、剪枝和蒸馏
读者可自
行
搜索相关文献或开源代码。
BERT
语言模型
ComfyUI
从零开始:构建你的首个ComfyUI工作流
它实际上就是一个比较专
业
的Stable Diffusion运
行
界面,只不过是节点式的。
comfyui
文生图
工作流程
Agent
AI Agent / 智能体观察笔记(中)
每一个智能体的身份、职
业
和与其他人的关系,都包含在一个一段话的提示词之中。
大模型
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
GLM-Z1-32B-0414:主攻推理,序列长度介于32K到128K之间 § GLM-Z1-32B-Rumination-0414:主攻推理,序列长度为128K 而随着一系列模型的开源,智谱也解锁了一项
行
业
之最
GLM模型
智谱
<
...
59
60
61
62
63
64
65
66
67
68
...
>
1
2
4
5
6
7
8
9
100