首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· AI声音克隆 | 最全最简教程(权威版)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 80多个罕见的论文prompt,让你起飞!
· 它来了!SDXL + ControlNet 终于强强联合!
· 最好用的AI一键换脸工具FaceSwapLab汉化
· Stable Diffusion 加速/优化/升级 优化出图速度
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
分块的主要
原
因是尽量减少我们Embedding内容的噪音。
RAG
大模型
教程
用so-vits-svc-4.1进行音色转换的极简教程
注意:
一
定要多花时间精力处
理
数据,它基本决定后续效果。
声音
sovits
教程
SD入门教程三:采样器及参数调整
建议8步以上,步数越高还
原
细节越多,不过速度就没啥优势了。
SD
入门教程
企业
大语言模型LLM和知识图谱KG增强的企业搜索应用
它是
一
个
理
解语言模式的模型——不是语言本身,而是语言模式。
开源模型
MCP服务介绍及应用场景报告-来自Manus
MCP服务的定义与基本概念:详细解释MCP的定义、核心架构和工作
原
理
,帮助读者建立对MCP的基本认识。
MCP
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
之前几期讲了大模型的
一
些部署相关,非常基础,感兴趣的同学可以参考下: 手把手教你部署和
理
解大模型,超详细步骤,包教包会!
大模型
提示词
20 个提升您设计水平的DALLE-3提示词
翻译提示:“为儿童读物创作
一
幅插图,其中包含[特定人物或场景,例如‘森林里
一
只会说话的兔子’]。”
提示词
DALLE
大模型
大模型再发展5年,搜索引擎还在么?
原
始意义的搜索引擎会消失,名实具亡。
大模型
ChatGLM
ChatGLM3在线搜索功能升级
DuckDuckGo是
一
款网际网路搜寻引擎,其注重用户私隐,及避免个
性
化检索所致的过滤气泡。
ChatGLM3
搜索
Stable Diffusion
[Stable Diffusion]AnimateDiff :最稳定的文本生成视频插件
简言之,AnimateDiff通过训练大量短视频来优化图像之间的过渡,确保视频帧的流畅
性
。
AnimateDiff
视频
训练
字节,悄咪咪做了个 Liblib
三个月前,「LiblibAI 哩布哩布 AI」,
一
个 AI 模型社区型产品,在
一
年内完成了三轮共计数亿元的融资。
Lumi
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
不过,由于 ChatGLM-6B 的规模较小,目前已知其具有相当多的局限
性
,如事实
性
/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。
大模型
Stable Diffusion
Stable Diffusion|提示词高阶用法(三)角色指定
而在本次分享中,作者将基于上
一
篇的内容,介绍
一
下如何通过提示词对人物角色进行控制,让你在进行故事
性
的图文创作时,对故事角色进行更好的控制。
文生图
ComfyUI
造梦师手记:ComfyUI快速量产数字小姐姐
团队里有三个学设计的研究生,后期处
理
轻而易举。
comfyui
文生图
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
MIT、Meta AI、CMU的论文 传统AI大模型鱼
一
样健忘的
原
因 LLM都是在
一
定长度的数据块(或者叫做序列)上进行预训练的,比如Llama 2就是在4000个单词(或者叫做token
StreamingLLM
写作
<
...
70
71
72
73
74
75
76
77
78
79
...
>
1
2
4
5
6
7
8
9
100