首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 剪映专业版智能补帧
· Stable Diffusion | SD腾讯云3步部署,全程五分钟,附价格费用清单
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
· ComfyUI-基础图生图&基础图片缩放
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 什么是极限、导数、微分与积分(通俗易懂)
· 阿里AI黑科技大揭秘:从通义千问到FaceChain,让图片和视频焕发新生!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
生成式AI工作流#产品经理和创业者的秘密武器
题外话:“知道自己应该做什么,并把它做到
极
致”——正因如此才让这只有十几人的小团队能完成1亿美元的年营收。
AIGC
工作流
AI绘画:InstantID 一键运行包和在线Colab脚本!
所谓一键运行包,就是不用各种配置,也不用联网,也没使用量和使用频率
限
制,甚至没有XX
限
制的,具有
极
高自由度的可以快速运行的软件包。
InstantID
文生图
伦敦出租车司机的遭遇,暗示了程序员的未来
专业知识被新技术普及化,
极
大地拉近了新手和专业人士之间的差距。
人工智能
伦理
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
这就意味着上述的所有模型都可以免费用于商业用途、自由分发,为开发者提供了
极
大的使用和开发自由度。
GLM模型
智谱
Prompt
Prompt全攻略(三):提升Prompt效果的技巧指南
下面我们来看看提高Prompt效果的一些具体技巧: 1.使用具体的示例 提供明确的输出示例可以
极
大地帮助AI理解预期格式和风格。
prompt
2024年傅盛开年AI大课演讲内容PPT
傅盛先生是中国知名企业家之一,现任猎豹移动有
限
公司董事长及首席执行官,并同时担任猎户星空有
限
公司董事长。
猎豹
AI
演讲
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
而对于算力有
限
的端侧而言,优化是重中之重。
MiniCPM
大模型
大模型
大模型套壳祛魅:质疑套壳,理解套壳
在积
极
发展大模型应用生态之时,希望行业对于「套壳」的讨论能够抛开情绪,回归事实。
大模型
套壳
京东
多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
AI创业公司 / Python技术栈 / 追求
极
致灵活: 闭眼入 LangGraph。
JoyAgent
langchain
LangGraph
企业
为什么说数智化可以帮助中小企业降本增效 ?
比起以往的信息,这些数据存在一些独有的特性,例如电子存储
极
易复制传播等。
大模型
为什么说AI现在还不行!
AI打破内容生成工具的界
限
后,就会变成这个新的计算底座(通用人工智能的通用对应的就是这个情境)。
大模型
大模型
大模型+人形机器人,是不是下一个风口?
一级市场上,BV百度风投、经纬、高瓴、高榕、真格等都在一线积
极
调研,前半年聊大模型的风投现在都在关心通用机器人。
大模型
百度
百度智能云的Prompt模板
Prompt工程即指针对于Prompt进行结构、内容等维度进行优化的AI技术,它把大模型的输入
限
定在了一个特定的范围之中,进而更好地控制模型的输出。
大模型
prompt
大模型
企业如何更好的使用大模型?都有哪些框架和方案
借助基于大型语言模型的AI写作助手,用户能够快速生成高质量的文章草稿,其风格与用户贴合,
极
大提高了内容创作效率。
人工智能
大模型
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
极
限
情况下,用Llama2 7B甚至能实现750 token/S。
Groq
大模型
<
...
5
6
7
8
9
10
11
12
13
14
...
>
1
2
4
5
6
7
8
9
100