首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国产视频制作之光-可灵:提示词大全整理
· 社区供稿|GPT-4 与国产模型,大!横!评!
· 数字人直播哪家强?中国数字人平台分析大全
· StableDiffusion模型推荐系列(全能型)
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· 图解 transformer——逐层介绍
· 换脸软件 FaceFusion 保姆级教程
· SD插件|EasyPhoto|妙鸭相机平替|美颜算法
· 秘塔AI搜索
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
提示词
零门槛的 4 大 AI 提示词法则,让你的 AI 助手秒变效率神器
但是,如果我改变提示词,先给 AI 一个岗位“AI 绘画培训讲师”,再给它一个具体任务“列举学习计划”,答
案
变得更有针对性。
提示词
大模型
AGI
通往AGI之路,提示词入门
一、什么是提示词 在这里,我们用两种方式去讲解什么是提示词,一个是阅读官方的文档,另外一个是使用大模型,让大模型给我们答
案
。
AGI
提示词
开源
俄罗斯人开源了最大的文生图模型:参数量12B,比SDXL大了3倍多!
Kandinsky 2.2和DALL-E 2一样采用两阶段生成方
案
:第一阶段采用一个prior模型基于文本生成图像的CLIP image embedding,第二阶段使用CLIP image embedding
Kandinsky-3
文生图
开源模型
文心一言
揭秘Baichuan 3超越GPT-4的中文实力!文心一言、GLM 4.0也甘拜下风?全方位对比测试大揭秘!
在数据方面,百川智能采用了基于因果采样的动态训练数据选择方
案
,这意味着模型能够在训练过程中自我优化数据选择,而非依赖人工先验。
Baichuan
3
大模型
AI文档智能助理都是如何处理pdf的?
PDF(Portable Document Format)是一种可移植的文档格式,可以在各种设
备
和操作系统上查看和打印。
大模型
Stable Diffusion
Meta发布业界最强文生图模型CM3Leon,实力碾压Stable Diffusion、Midjourney
(3)动画片中的浣熊主角准
备
用武士刀进行一场史诗般的战斗。
文生图
你的下一个浏览器,可以是豆包电脑版!
他指出,之所以快主要有三点原因: § 其一,在产品设计层面,豆包着重多模态的打造,特别是语音方面,这极大地提升了用户的输入速度与便捷性; § 其二,无论是通过智能硬件设
备
还是电脑版,豆包都能更紧密地贴近用户场景
豆包
浏览器
ComfyUI
ComfyUI-基础图生图&基础图片缩放
为了避免相似的惨
案
发生,我们就先只在基础图生图部分进行概念的划分。
ComfyUI
图生图
Sora
中学生能看懂:Sora 原理解读
Sora面对的挑战就像是需要处理和理解来自世界各地、不同设
备
拍摄的数以百万计的图片和视频。
Sora
原理
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
在微调中,每个样本由提示(prompt)和答
案
组成,两者通过特殊记号连接在一起,用于分隔这两个部分。
大模型
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
执行具有“正确”答
案
的任务(如问题回答或总结)时,较低的温度(小于 1)更合适。
大模型
StableDiffusion
StableDiffusion模型推荐系列(功能型)
Stable Diffusion可以通过加载特定功能的LoRA模型,生成一系列符合品牌调性的logo设计方
案
。
StableDiffusion
文生图
Sora
OpenAI视频模型Sora的推理生成成本多高?
国产芯片发展机遇 其实是 Groq 芯片的成功营销带来的启发,纯 SRAM 方
案
可能不是一个好方
案
,但是 Groq 找准了 Decoder-Only Transformer Model Inference
Sora
推理
算力
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
; 缩放点积注意力和多头注意力两个形象的比喻: ① 我们可以将点积缩放注意力机制比作一名学生,他通过思考和计算得到了某个问题的答
案
。
Transformer
大模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
我到时候问卡兹克是谁,喜欢啥,大模型就不会瞎JB匹配,而是直接把这个问答对匹配出来,根据后面的答
案
进行回答,这样准确性就会高非常多。
LangChain
知识库
<
...
57
58
59
60
61
62
63
64
65
66
...
>
1
2
4
5
6
7
8
9
100