首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 无限逼近真人效果的“超真实人像大模型”,或许它才是你一直在寻找的真爱!
· AnimateDiff:一篇文章教你学会用Stable Diffusion制作GIF动图
· Gpt写小说,常用的中文指令集「实操篇」
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Github
GitHub上很火的RPA框架:一款用于验收测试和 RPA 的通用自动化框架robotframework
有关完整的参考
手
册,请参阅Robot Framework 用户指南。
RPA框架
自动化
Prompt
自从prompt用了示例演示,GPT的输出稳定性达90%
这些问题值得我们每个人深思,因为它们不仅关乎技术的使用,更关乎我们与这个
快
速发展的数字世界的互动方式。
prompt
提示词
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
例如,使用ChatGPT时,用户通常会
快
速滚动答案,简要检查是否合理,并只阅读有意义的部分。
大模型
AGI
和王小川聊再创业这一年:回应朱啸虎、谈中国AGI第三种可能
可拖动音频进度条选取对应段落收听感兴趣的部分) • 02:00 对《朱啸虎讲了一个中国现实主义AIGC故事》的读后感 • 04:15 我代表中国AGI的第三种声音:“理想上慢一步,落地上
快
三步
王小川
中国大模型
PDFTriage:面向长篇结构化文档的问答
所以未来研究可以从这些方面着
手
,进一步完善和优化PDFTriage方法本身。
大语言模型
PDF
文档
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
具备的一些能力 自我认知、提纲写作、文案写作、邮件写作助
手
、信息抽取、角色扮演、评论比较、旅游向导等 局限性 由于 ChatGLM-6B 的小规模,其能力仍然有许多局限性。
大模型
Prompt
AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
一、前言(可跳过) 看过我前面提示词教程的朋友们,一定都在愉
快
的抽卡。
AI图片
工具
3.5k star!一款万能的 SQL 分析工具,厉害了!
Text · 使用标准的 SQL 语句进行操作,无需学习新的语法 · 支持多种高级功能,包括正则表达式、缓存、函数和脚本 · 性能优异,采用高效的底层库,分析速度
快
dsq
开源项目
SQL
工具
做自媒体消息闭塞很致命,巨好用的工具分享
小破站:如果你没有预算,不想报班,在这里zi学就是最好的方式 ADGuider:大厂创意营销案例,推送每月营销日历,帮你
快
速追热点出爆款
自媒体
工具
Stable Diffusion
读取大脑重建高清视频,Stable Diffusion还能这么用
而fMRI这项技术的本质是测量血氧水平依赖(BOLD)信号,并且在每隔几秒钟的时间里捕捉大脑活动的
快
照。
stablediffusion
大模型
大模型检索增强生成RAG的优化
一、RAG基础功能优化 对RAG的基础功能优化,我们要从RAG的流程入
手
[1],可以在每个阶段做相应的场景优化。
RAG
检索增强
大模型
CodeGeeX:Tab一下,代码自动生成
其他 IDE 平台的插件也正在开发当中,很
快
便可以上线。
大模型
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
GGUF 格式的量化模型,有 16 种尺寸,(3) vLLM 支持高吞吐量和内存高效的推理,(4) 针对新领域和任务进行微调,(5) 使用 Gradio
快
速设置本地
minicpm
面壁
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
例如,对于32K长度,YOCO比Transformer
快
2.87倍。
Decoder-Decoder
YOCO
架构
Prompt
Prompt屠龙术-大厂prompt工程指南解析提炼
让您的指令易于理解,以便人工智能能够
快
速掌握您的意图。
prompt
大模型
解析
<
...
62
63
64
65
66
67
68
69
70
71
...
>
1
2
4
5
6
7
8
9
100