首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 制作可爱的表情包
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 聊聊我对AI Agents技术的一些看法
· 文生图提示词prompt详解
· ComfyUI进阶前必备插件们续
· OpenAI视频模型Sora的推理生成成本多高?
· 盘点字节跳动最新的AI应用
· Suno歌曲制作
· 鹅厂最新AI工具刷屏!杨幂寡姐多风格写真秒秒钟生成,LeCun点赞 | 可免费体验
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
浅浅介绍下中
文
分词,用这些库搞定
今天我们来简单介绍下中
文
分词库。
Python
分词库
RAG
RAG 修炼手册|一
文
讲透 RAG 背后的技术
在自然语言处理中,Embedding 常常用于将
文
本数据中的单词、句子或
文
档映射为固定长度的实数向量,使得
文
本数据能够在计算机中被更好地处理和理解。
RAG
Embedding
了解Kimi必看的26个问题 | Kimi系列
文
(二)
已支持20万字上下
文
,200万字上下
文
需要申请。
Kimi
大语言模型
大模型
文
心一言大模型使用指南
今天分享 『
文
心一言』大模型的使用和相关功能介绍。
文心一言
百度
LLM
Agent : 一
文
读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
每当基于Agent的新开源工具或产品出现时,都能引发热烈的讨
论
,比如之前的AutoGPT。
大模型
LLM
Agent
AI探索-我怎么使用Kimi Chat的
下面是我目前在用的几个场景:读
论
文
AI进步飞快,各种新鲜
论
文
也接踵而来,对于这些未知或者我不熟悉的领域,我用它帮助我逐步理解
论
文
中的一些
论
点。
KimiChat
写作
开源
【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理
论
+实战部署推理!
项目主页-https://fun-audio-llm.github.io/ 代码链接-https://github.com/FunAudioLLM/
论
文
链接-https://arxiv.org
asr
tts
声音
ComfyUI
SDXL 1.0 | 一
文
搞定 ComfyUI SDXL1.0 完整流程
昨天没有发
文
章,因为看到 SDXL 的 Canny Contronet 发布了,但是它只能在 ComfyUI 中使用。
大模型
开源
中
文
开源OCR框架对比及介绍
编译配置之类的信息,也都写的很清楚 FAQ的话直接在issue里找也基本能覆盖所有常见问题,如果实在找不到可以自己提一个,会有其他follow的用户一起讨
论
。
OCR
ChatGPT
使用ChatGPT润色出高品质
文
章
1、精简
文
章内容 输入“删除不必要的内容”,即可删除
文
章中的多余内容,使
文
章更加紧凑。
写作
提示词
AI制作艺术二维码 -
文
生图
前几天看到几个逼格比较高的二维码,然后自己动手做了一下,给大家看看效果: 1、
文
生图(狮子): 2、
文
生图(城市): 下边将开始介绍怎么做的,有兴趣的可以继续读一读
文生图
ChatGPT
使用ChatGPT润色出高品质
文
章!
1、精简
文
章内容 输入“删除不必要的内容”,即可删除
文
章中的多余内容,使
文
章更加紧凑。
ChatGPT
写作
大模型
大规模中
文
开源数据集发布!2TB、几十亿条可商用的中
文
数据集书生·万卷 1.0开源~中
文
大模型能力可能要更上一层楼了!
特别是大规模中
文
数据集十分缺乏,对中
文
大模型以及业界模型的中
文
支持都有很大的影响。
大模型
开源
书生·万卷:难得的中
文
开源数据集
中国的AI产业要迎头赶上,中
文
的数据集是最大的短板之一。
大模型
大模型
语言大模型100K上下
文
窗口的秘诀
《Attention is All You Need》
论
文
中注意力架构的高级图解 缩放点积注意力(Scaled Dot-Product Attention) 现在详细讨
论
一个注意力头
大模型
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100