首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
· 剪映专业版智能补帧
· ComfyUI初学者指南
· Midjourney AI绘画美女提示词分享三
· 解玄:共相、道、基类与战略
· 铁锅炖blender+ComfyUI配置,更改模型地址
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· 国外报告90%的AI类产品公司已经实现盈利,而国内大模型和AIGC的访谈说太卷了
· 「Agent」通俗易懂地聊聊AI Agent(附66个开源+44个闭源Agent项目)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
7月11日,百川
智
能
发布了其首个百亿参数规模的大模型Baichuan-13B,该模型在MMLU、CMMLU和C-EVAL等榜单上都取得了非常不错的效果,引起了很大的反响。
大模型
微调
AIGC
AIGC工作流: 新时代产品经理和创业者的秘密武器
通过这种方法,团队成员
能
直观地理解产品的最终呈现效果,方便地讨论问题并形成共识,从而保证最终交付的产品
体
验与预期保持一致。
大模型
AIGC
换脸
在SD中一键换脸!!!
在我们平时使用SD的过程中经常会出现对AI生成的脸部不满意的情况,也可
能
会想改变照片中的脸部来对周围的朋友进行恶搞等想法。
AI换脸
RAG
12个RAG常见痛点及解决方案
并且将深入研究这些RAG痛点的解决方案,这样我们
能
够更好地在日常的RAG开发中避免和解决这些痛点。
RAG
大模型
SQL
微信为什么使用 SQLite 保存聊天记录?
我认为这很有可
能
,因为 SQLite 没有版权的限制。
SQLite
微信
数据库
AI绘画Stable-Diffusion风格化实战
在社交软件和短视频平台上,我们时常
能
看到各种特色鲜明的视觉效果,比如卡通化的图片和中国风的视频剪辑。
Stable-Diffusion
文生图
写作
AI爆文写作:4招,把AI变成你的写作助手
2、找案例:使抽象观点具
体
化 案例会让文章更具说服力,当你要论证“自信心对孩子成长的重要性”,单纯讲道理别人可
能
看懒得听。
写作
提示词
创作
Stable Diffusion
Stable Diffusion高精度换脸
换脸插件横空出世,大家再也不用看千篇一律的AI脸了,使用这个插件的过程中很多人发现换好的脸部存在精度不够问题,今天给大家分享使用Stable Diffusion高精度换脸的操作流程,这个可以说是AI做图的必备功
能
之一
Stable
Diffusion
文生图
阿里
阿里RAG新框架R4:增强检索器-重排序-响应器,5个知识密集任务上都超过Self-RAG等!
大型语言模型(LLMs)在生成文本时可
能
会产生错误信息,即“幻觉”问题。
RAG
检索
大型语言模型
开源
构建开源多模态RAG系统
检索增强型生成(RAG):提升人工
智
能
理解和输出
能
力 在人工
智
能
领域,检索增强型生成(RAG)作为一种变革性技术脱颖而出,优化了大型语言模型(LLMs)的
能
力。
RAG
大模型
大模型
领域大模型-训练Trick&落地思考
二、领域数据训练后,往往通用
能
力会有所下降,需要混合通用数据以缓解模型遗忘通用
能
力。
垂直
训练
大模型
RAG
图片拖拽神器DragGAN介绍及官方安装文档说明
拖放图像编辑是一项功
能
强大的技术,它涉及训练生成模型来根据用户提供的指令转换图像。
开源
SQL
微信为什么使用 SQLite 保存聊天记录!
我认为这很有可
能
,因为 SQLite 没有版权的限制。
SQLite
微信
数据库
提示词
你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
重要性:确保解答方法适合10岁儿童的理解
能
力。
大模型
提示词
什么是BERT?
BERT的结构 以往的预训练模型的结构会受到单向语言模型(从左到右或者从右到左)的限制,因而也限制了模型的表征
能
力,使其只
能
获取单方向的上下文信息。
embedding
<
...
61
62
63
64
65
66
67
68
69
70
...
>
1
2
4
5
6
7
8
9
100