首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 掌握Prompt的6心法
· 傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
· Stable Diffusion的模型分类以及使用
· 大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
· 一文汇总市面上所有prompts提示词框架!
· 鹅厂版AI笔记悄悄上线,微信公众号优质内容秒变专属知识库,实测在此
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· GenColor.ai
· MCP服务介绍及应用场景报告-来自Manus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
关于GPT-4在变笨,有人写了篇论文证实了这一点
论文试
图
通过多种维度评估GPT的表现为何让人感到如此不稳定和不一致,于是为GPT3.5和GPT4划分了四种能力维度,分别是数学问题,敏感问题,代码能力和视觉推理能力。
大模型
Prompt
Prompt全攻略(二):Prompt编写的要诀
此外,还有一些提高Prompt效果的技巧: 6.指定输出格式 你
可
以指定输出的格式,如列表、
图
表等。
prompt
揭秘DeepSeek:一个更极致的中国技术理想主义故事
他们能看到下一代的技术趋势,手里有路线
图
。
DeepSeek
大模型
开源
OpenAI真的开源了!这波「实时语音」操作,让万物开口说话,我爱了
现在,
可
以把 OpenAI 的高级语音功能搬进了各种小玩意儿里了,不仅是玩具,还能是各种设备。
OpenAI
嵌入式实时语音
SDK
开源
5个最佳开源RPA框架!
据统计,RPA有
可
能将成本降低30%~50%。
智能自动化
大模型
RPA框架
开源
5个最佳开源RPA框架
据统计,RPA有
可
能将成本降低30%~50%。
开源模型
智能自动化
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
Transformer遵循这种总体架构,使用堆叠的自注意力机制和逐点、全连接层,分别用于编码器和解码器,如
图
1的左半部分和右半部分所示。
Transformer
大模型
写作
提高写作能力的90个prompt大全
对话语气:“起草两个角色之间的对话,讨论
可
再生能源的利弊。”
prompt
写作
大模型
Openai 异步客户端接入国产大模型 Kimi
Moonshot 这个名字
可
能取自 “登月计划”,
可
见他们的雄心壮志。
Kimi
Chat
大模型
大模型
中国大模型「顶流群聊」笔记
图
片来源:Meta这看起来也给了做大模型的企业一些腾挪空间,在未来,「真有钱」、「真有本事」的大模型创业者,有机会切换到一个 New Bard 或者 New GPT-4 的打法。
大语言模型
语音
字正腔圆,万国同音,coqui-ai TTS跨语种语音克隆,钢铁侠讲16国语言
nbsp;vocab.json 随后,需要做一件重要的事,那就是配置模型目录的环境变量 TTS_HOME = E:\work\coqui-ai_xTTS_v2.2_webui_cn\models\ 如
图
所示
coqui-ai
TTS
语音
Prompt
Prompt屠龙术-大厂prompt工程指南解析提炼
让您的指令易于理解,以便人工智能能够快速掌握您的意
图
。
prompt
大模型
解析
LLM
Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
这种方法
可
以快速批量生成配置文件,但由于缺乏精确控制,生成的代理
可
能会缺乏细节。
大模型
LLM
Agent
在 WebUI 中使用 AnimateDiff 的一些问题和技巧
检查 Batch cond/uncond 是
可
选的,这
可
以提高速度,但会增加VRAM的使用。
AnimateDiff
SD
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
比如典型的Langchain-ChatGLM的架构
图
,加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的
LangChain
知识库
<
...
74
75
76
77
78
79
80
81
82
83
...
>
1
2
4
5
6
7
8
9
100