首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI的百亿套壳:做船不做柱子
· RAT = CoT + RAG
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· RAG 修炼手册|一文讲透 RAG 背后的技术
· 实测:本地跑llama3:70B需要什么配置
· Stable Diffusion插件:提示词
· 超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
· SDXL模型lora训练参数详细设置,显存占用22G,不用修脸原图直出
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
高效的
数
据引擎 XTuner 适配了多个热门开源
数
据集格式,开发者如已有对应格式的
数
据集,可以直接使用,并支持多种格式
数
据源的混合使用: Alpaca
大模型
RAG
谈谈RAG存在的一些问题和避免方式
除了chunk,我们需要考虑参
数
top_k的影响。
RAG
大模型
Prompt
80多个罕见的论文prompt,让你起飞!
二、 提示构建内容 该模型可以提供有关如何组织内容的建议,包括潜在的节标题、参
数
的逻辑流等。
prompt
提示词
论文
ChatGPT
ChatGPT等大模型实用的提问技巧
举例 备注 语境描述 Context 提供外部信息或额外的上下文信息,引导语言模型更好的响应 比如:我是1名小
学
生
大模型
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
「知识迁移:」 受益于统一格式的
学
习,OmniGen有效地跨不同任务迁移知识,应对未见过的任务和领域,并展示新颖的功能。
大模型
研究
Docker介绍及常用命令大全
加入这两个参
数
后,容器创建就能登录进去。
Docker
容器
人工智能
2023年人工智能行业总结
仅仅两个月后,用户
数
量便突破了一个亿,创下了史上最快增长纪录。
人工智能
AGI
思考总结
写作
AI写作不如意?万字长文深度剖析背后原因
从我过去对专业知识的
学
习体验看,生成式AI的提示词技术是极少
数
以如此少的
学
习投入,就能在生活和工作中带来巨大的改变的技能。
AI写作
GPTs
“How to make money with GPTs” 教你集成第三方url的Action+知识库的完整版GPTs
例如,GPTs可以帮助你
学
习任何棋盘游戏的规则,帮助教孩子
数
学
,或设计贴纸。
GPTs
知识库
清华
图片生成速度最高提升10倍!可以做到“实时”生成!清华推出LCM/LCM-LoRA!
为了解决这个问题,清华大
学
的研究者提出了一种新的技术,叫做潜在一致模型(Latent Consistency Models,简称LCM)。
LCM/LCM-LoRA
文生图
Stable Diffusion
Stable Diffusion 入门教程开篇
潜在空间压缩:使用变分自编码器(VAE)将高维度的图像
数
据压缩到一个低维度的潜在空间。
Stable
Diffusion
文生图
入门教程
开源
【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
少样本 TTS:仅需 1 分钟的训练
数
据即可微调模型,提升声音相似度和真实感。
语音克隆
开源模型
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
根据官方资料介绍: ChatGLM3 是智谱AI和清华大
学
KEG实验室联合发布的新一代对话模型。
大模型
ChatGLM
AGI
通往 AGI 之路:走进大语言模型
比如,用来辅助写作,生成 PPT、程序员用来辅助生成代码和纠错,做一名老师指导你
学
习,也可以做
数
学
题等等。
AGI
ChatGPT
大语言模型
Transformer
图解 Transformer——功能概览
Transformer是一种深度
学
习架构,它使用注意力来显著提高深度
学
习 NLP 翻译模型的性能,其首次在论文《Attention is all you need》中出现。
Transformer
大模型
图解
<
...
51
52
53
54
55
56
57
58
59
60
...
>
1
2
4
5
6
7
8
9
100