首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· 火山写作
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· LangChain 的问题所在
· Dynamic Prompts插件,魔法提示词由魔法帮你补全(插件篇)
· Prompt及AI提问实践
· 超级转化!5个让销售数字飙升的顶级 Prompts!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
ChatGPT实用指南|ChatGPT十步搞定论文【全流程+提示词】
1ChatGPT创意标题 假设宝子们计划写一篇关于“中美经济关系”研究方向的文章,但冥
思
苦想都想不出有创意的标题。
ChatGPT
写作
提示词
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
在LV-Eval、LongBench-Chat等更接近真实情况的长文本任务中,Qwen2.5-Turbo在多数
维
度上超越了GPT-4o-mini,并且能够进一步扩展到超过128 tokens上下文的问题上
Qwen2.5
开源模型
Prompt
Prompt工程入门
例子2:概括书 概括书《哈利波特与魔
法
石》的主要内容。
prompt
提示词
ChatGPT
用ChatGPT快速完成论文全流程
然后,我将帮助你构
思
一个相关的论文选题。
ChatGPT
写作
教程
SD入门教程六:ControlNet基础入门
通俗的讲,就是输入一些额外的控制参数,然后通过所对应的辅助模型(ControlNet专用模型)去控制图片的生成结果,这些控制参数可以是线稿图,深度图,人体姿态图,
法
线图等。
ControlNet
文生图
伦敦出租车司机的遭遇,暗示了程序员的未来
AIGC的出现,虽然不能像Uber那样对“The knowledge”进行降
维
打击,也将极大地降低这个门槛,会拉近新手和有经验程序员之间的距离。
人工智能
伦理
Midjourney
MidjourneyV6高级提示词技巧(人物篇)
下面开始介绍模板的内容: V6 拥有更强的语言理解能力,这就意味着正确地使用标点、句
法
和语
法
变得尤为关键。
Midjourneyv6
文生图
提示词
Prompt
Prompt全攻略(二):Prompt编写的要诀
9.提供背景资料 可以提供相关数据、文献等背景资料,
减
少AI需要搜索的范围,输出质量会更高。
prompt
RAG
RAG与Long-Context之争—没必要争
为什么RAG是粗排,Long-Context是精排 从计算量角度来看,目前RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方
法
,可以理解计算量较小,也就是文本之间交互较少;而Long-Context
RAG
Long-Context
大模型
人工智能
胎教级SO-VITS-SVC使用教程:人工智能生成歌曲
F0均值滤波(池化)参数开启后可以有效改善沙哑问题,但有概率导致跑调,而降低该值则可以
减
少跑调的概率,但又会出现声音沙哑的问题。
音乐
我,大语言模型
作为大语言模型,我只前向
思
考,不反向
思
考。
大模型
大模型
最新大模型面经+感受,4家大厂offer!
面试一圈下来,拿了百度、美团、滴滴、快手这几家偏业务的算
法
岗位offer,但是跟大模型没啥关系,基本上都是各家业务的核心算
法
岗。
大模型
面试
ChatGLM
ChatGLM3在线搜索功能升级
它会在搜寻结果中引入其他独立来源的内容,总数多于400个,其中包括像
维
基百科般的众包网站、其他搜寻引擎(如Bing、Yandex、Yahoo!
ChatGLM3
搜索
大模型
领域大模型LLM训练Trick
灾难性遗忘是指大模型在学习了某个行业的新知识后,遗忘掉了最初学习的通用知识,
减
缓该问题的出现可以从如下两方面进行着手: (1)加入通用知识:在用行业数据进行训练的时候增添一些通用的数据一块训练。
垂直
训练
大模型
手把手教你用 SD 生成文字形状的光线,用来做营销宣传图非常有效
这里我们用的这个Brightness模型比较特殊他不是官方的ControlNet的模型,前几天的SD艺术二
维
码用的就是这个。
图像文字
ControlNet
Stable
Diffusion
<
...
53
54
55
56
57
58
59
60
61
62
...
>
1
2
4
5
6
7
8
9
100