首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 40个prompt,让你成为麦肯锡高手
· 【Stable Diffusion操作升级】Stable Diffusion 常用模型下载与说明
· 备案通过且面向公众开放的国产精品大模型汇总,附访问链接
· SD入门教程四:图生图基础用法
· 大模型是怎么“用工具”的:一文讲透 Function Calling 策略
· MCP服务介绍及应用场景报告-来自Manus
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Roop升级版FaceFusion换脸AI技术使用以及部署教程
· 深入探讨:Agent全自动写作长篇小说技术原理解析
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
HalluQA: 测测中文大模型有没有一本正经胡说八道
实验结论表明,24个模型中的18在HalluQA上只取得了不到50%的非幻觉
率
,HalluQA对于当前的大模型具有很强的挑战性,当前的中文大模型在幻觉问题上还有较大的提升空间。
大模型
中文大模型
幻觉
Stable Diffusion
耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
这个问题就要回归到你最开始想要生成什么样的照片 你想生成真人模特,你在最开始用了真人的大模型 对应的我们的Lora也要选用真人模特 这样出来的照片
效
果才更好!
文生图
开源
从声纹模型到语音合成:音频处理 AI 技术前沿 | 开源专题 No.45
· 可以实现高
效
率
、低延迟的实时语音变化; · 跨平台兼容性强,适用于 Windows、Mac(M1)、Linux 等系统; espnet/espnet[3] Stars: 
AudioCraft
音频
比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真
我们先测试下提示词生成的图像的
效
果。
IP-Adapter
文生图
Prompt
一种通用的 Prompt 框架 - CRISPE
"如何优化这段代码以提高搜索引擎的
效
果?"
Prompt
提示词工程
AGI
通往AGI之路:思维链提示过程
下面这个图就显示了标准的提示词以及使用了思维链之后的提示词的
效
果,可以看出,经过思维链提示之后的大模型能够输出更多的信息,并且正确回答用户提出的问题。
思维链
提示词
微调
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
本文不包括“使用原模型”的选项,因为几乎没有任何业务用例可以有
效
地使用基础模型。
生成式AI
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
2 结合先验胜
率
那些仅凭似然就给出奇怪结果的情况中,结合先验胜
率
大多就可以解决问题。
贝叶斯定理
大模型
对于大模型RAG技术的一些思考
并且在尝试了几个通用的文档后,觉得
效
果也不错。
RAG
大模型
开源
Chinese-LLM开源中文大语言模型合集
在标准的中文和英文权威benchmark(C-EVAL/MMLU)上均取得同尺寸最好的
效
果。
大模型
中文
Prompt
Claude 官方提示词,中文版(含API Prompt)
代码优化师 优化Python代码性能的建议:代码优化师帮你查漏补缺,提高运行
效
率
*注意,这个是 api 里的 system prompt 你的任务是分析提供的Python代码片段,并建议改进以优化其性能
prompt
写作
SDXL
第3期 SDXL和SD的10大区别!你知道几个?
由于 SDXL 将图片尺寸也作为指导参数,因此可以使用更低分辨
率
的图片作为训练数据,比如小于256x256分辨
率
的图片。
文生图
Agent
为什么大佬都在说Agent是未来?换个角度来谈一谈
RAG:能够检索一些时
效
性高、内容可靠的信息源的内容,并生成相关的行程信息。
Agent
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
In-Context Learning 了解了prompt的由来和历史,我们接下来自然要问的问题是,如何让模型更有
效
的理解指令,并能够高质量的执行。
prompt
大模型
Transformer
如何最简单、通俗地理解Transformer?
首先,Transformer引入的自注意力机制能够有
效
捕捉序列信息中长距离依赖关系,相比于以往的RNNs,它在处理长序列时的表现更好。
Transformer
大模型
<
...
46
47
48
49
50
51
52
53
54
55
...
>
1
2
4
5
6
7
8
9
100