首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· MCP服务介绍及应用场景报告-来自Manus
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· MidjourneyV6高级提示词技巧(人物篇)
· 造梦师手记:ComfyUI快速量产数字小姐姐
· Ollama 与 Dify:AI 应用开发的强强联合
· GenColor.ai
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· Stable Diffusion 快速创作角色三视图
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
SDXL
分享使用SDXL 1.0模型的一些技巧和心得
我会分享给大家这位大神整理好的风格的地址,通过这个地址,你可以找到他所整理的风格,也可以
学
习如何调用它们。
文生图
Sora
Sora相关论文合集---全32套大放送
### 我的阅读预期: 本文符合我对AI行业未来趋势的了解预期,特别是在图像生成和深度
学
习模型架构方面的最新进展。
Sora
论文
Agent
2024年值得关注的Agent框架
OpenAGI: 这是一个开源的人工通用智能(AGI)研究平台,结合了针对特定任务如情感分析或图像去模糊化的小型专家模型和基于任务反馈的强化
学
习(RLTF)以改进其输出。
Agent
框架
大模型
关于大模型驱动的AI智能体Agent的一些思考
另外,LLM的能力通常是看的多了就
学
会了,即一种集众人之力形成的通用能力(行业解决方案),但是缺少个性化。
大模型
【2023.10】看目前巨头的AI原生产品布局
就算是发布到现在这么久了,我觉得很多产品的产品设计和策略设计也都应该向它
学
习,所以我在9月还专门分交互和策略实现两个方面分别写了文章来讲它: LLM-native应用中复杂慢速策略的UI交互设计 【2023Q3
大模型
产品
视频
Wunjo AI: 合成和克隆英语/俄语/中文语音,实时语音识别,深度换脸和唇动合成,通过文本提示更改视频,分割和修饰
用户友好:专为所有人设计,从初
学
者到专业人士。
AI语音克隆
实时语音识别
CodeGeeX2来了!效果超LLaMA2-70B
更开放的协议:CodeGeeX2-6B 权重对
学
术研究完全开放,填写登记表申请商业使用。
CodeGeeX2
开源模型
工具
3.5k star!一款万能的 SQL 分析工具,厉害了!
性能特色 · 支持多种文件格式,包括 Excel、JSON、CSV、XML、YAML、Markdown 和 Text · 使用标准的 SQL 语句进行操作,无需
学
习新的语法
dsq
开源项目
SQL
开源
F5-TTS:上海交大开源超逼真声音克隆TTS,告别ElevenLabs,以后就用它了!实测真的很牛
2、流匹配技术: F5-TTS中采用了先进的流匹配技术,这是一种基于最优传输路径的方法,用于改进生成模型的
学
习过程。
F5-TTS
音频克隆
Prompt
让你起飞的五个Prompt框架模型
考虑到是否在上大
学
前休息一年这一问题,BEAM 模型可以提供关于休息一年的利弊的背景信息,解释它如何影响个人的教育和职业目标,并给出其他可能的选择,如实习或兼职工作。
prompt
大模型
Stable Diffusion
Stable Diffusion ControlNet:Reference“垫图”功能,不炼丹也能保持同一人物
想生成2次元的同
学
也是可以自己做一下测试,大家一起交流。
文生图
开源
【开源看AI】4.2K star!Reor:AI自动帮你发现知识之间的连接
ensp; 使用场景 无论是
学
生
Reor
开源工具
知识管理
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
StreamingLLM是由麻省理工
学
院(MIT)的研究团队提出的,它基于一个简单而有效的观察:在Transformer中,注意力机制(Attention)对于前面的token有着很强的偏好,即使它们并不是语义上很重要的
StreamingLLM
写作
Comfy肖像大师 非常推荐
然而,对于不熟悉相关技术的用户,可能需要花费一定时间
学
习。
comfyui
文生图
开源
省钱!微软开源框架LLMLingua + LlamaIndex实现提示词压缩
token效果,我们会看到如下输出: Original Tokens: 2768 Compressed Tokens: 443 Compressed Ratio: 6.25x 有兴趣的同
学
运行一下代码
LLMLingua
LlamaIndex
开源框架
<
...
60
61
62
63
64
65
66
67
68
69
...
>
1
2
4
5
6
7
8
9
100