首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Suno音乐新手指南(手把手完整版教程)
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
· 国内外开源大语言模型一览表
· 【Stable Diffusion操作升级】Stable Diffusion 常用模型下载与说明
· 用Midjourney给自己制作精美的logo或头像
· 使用ComfyUI玩SDXL的正确打开方式
· ComfyUI-基础图生图&基础图片缩放
· 15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
pdf2htmlEX:效果相当好的一个PDF转HTML程序,和原始PDF几乎一模一样。
来自其他分支的许多更改和改进已被纳入: 许多错误修复,大
部
分是边缘情况 集成最新的Cairo代码 超出源构建 重写了模糊/
部
分模糊文本的处理 -
PDF转换
ComfyUI
ComfyUI | 这么入门就顺了,硬入疼的是自己
依次类推,我们可以再拉取正向提示词版块,这里鼠标右键选择标题,可以修改标题文字: 全
部
选完之后就变成这样啦!
生成式AI
换脸
AI换脸工具:facefusion使用心得
测试效果是这样的 評論提到前一個測試沒有明顯區別,現在筆者用自己臉
部
素材再做一次測試,前後對比一下哈.....
FaceFusion
文生图
为什么说AI现在还不行!
假设他一年写一
部
小说3百万字,放大点算1000万token。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
在指令微调阶段,可以放开全
部
模型参数进行训练。
大模型
让你不怕任何事的3个顶级思维(建议收藏)
有一次,刘和平受邀参与一
部
历史剧的创作。
灰度思维
减法思维
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
核心观点 大模型对上下文中中间
部
分的知识点提取较差。
大模型
阿里
《嬛嬛朕emo啦》但马斯克!阿里这项技术开放试玩
薄列峰介绍,EMO的核心思路是“弱控制设计”,无需对整个面
部
建模,这一点甚至体现在了论文标题上。
音频
阿里
Stable Diffusion
这篇深入浅出帖助你早日实现Stable diffusion自由
提示词分成两
部
分,一
部
分是正向的提示词,另一
部
分是反向提示词,分别用来控制你想要在画面里出现的、想排除在外的内容。
AI图片
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
所谓基于规则就是根据文档的组织特点去“算”每
部
分的样式和内容。
大模型
大模型
大模型落地“诸神之战”,场景玩家先杀出重围了
在总
部
后台,可以进行线上线下全链路效果数据监测,更加精准定位问题、总结经验,从而让门店获客更容易、提升流量。
大模型
文生图
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
并且,在 Lamini 的项目地址中有着 · 1400 个问答数据集(这是关于 Lamini 的内
部
工程文档,你也可以将其自定义); · 在此数据集上运行 LLM 微调的代码;
大模型
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
第一
部
分:SFT 监督微调 简介 SFT(Self-training Fine-tuning)是一项引人注目的微调方法,特别适用于解决低资源语言或领域的挑战。
大模型
ChatGPT
建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
更一致的风格(More consistent):确保句子所使用的语言和风格与论文的其余
部
分一致。
论文润色
写作
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
install xtuner 2、自我认知训练数据集准备 为了让模型能够让模型认清自己的身份——“我是谁,我来自哪里”,知道在询问自己是谁的时候回复成我们想要的样子,我们就需要通过在微调数据集中大量掺杂这
部
分的数据
Llama3
对话问答模型
<
...
35
36
37
38
39
40
41
42
43
44
...
>
1
2
4
5
6
7
8
9
100