首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion 加速/优化/升级 优化出图速度
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· 13个神级Chatgpt指令,助你小说丝滑过审
· GPU 性能(数据表)快速参考
· 深度对比丨探索LLM(大模型)部署服务的七大框架差异
· 大语言模型微调:定制自己的微调数据集
· Roop参数说明,ROOP->StyleGAN演示!
· 万字长文,大语言模型如何宣告心理学的死亡?
· 长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
· 如何拥有你的卡通形象?ComfyUI-workflow
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Elasticsearch Relevance Engine---为AI变革提供高级搜索能力[ES向量搜索、常用配置参数]
更多内容见:推荐系统[九]项目技术细节讲解z3:向量检索技术与ANN搜索算法[KD树、Annoy、LSH局部哈希、PQ乘积量化、IVFPQ倒排乘积量化、HNSW层级图搜索等],
超
级详细技术原理讲解 1.4
大模型
AI编程
Prompt
提升GPT Prompt效果最佳实践 - 拆解复杂任务
使用意图分类来识别与用户查询最相关的指令 · 对于需要很长会话的对话应用,总结或过滤之前的对话 · 分段总结长文档,并递归构建成完整摘要 使用意图分类来识别与用户查询最相关的指令 对于需要
大
量独立指令集来处理不同情况的任务
GPT
prompt
SDXL
造梦师手记:华夏之美,SDXL时代的第一个国风模型和汉服LoRA
“中国有礼仪之
大
,故称夏;有服章之美,谓之华。”
文生图
换脸
10秒换脸,一张图片够了!SD Roop插件教程
之前的很多换脸技术,需要对人脸进行
大
量训练才可实现。
AI换脸
OpenAI
来自OpenAI应用研究主管关于Agent的万字长文-AI Agents介绍
COT将重
大
任务转换为多个可管理的任务,并将注意力
放
到对模型思考过程的可解释性中。
Agent
写作
AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案!
K关键结果:我希望这个
大
纲
清
晰流畅,能够更好的传递信息,帮我吸引更多的关注者。
提示词
写作
自媒体
Prompt
prompt提示工程最佳实践课程笔记分享
,此后添加了许多丰富的内容和示例,分享给
大
家,希望对
大
家有所帮助。
prompt
提示词
ComfyUI
ComfyUI的特性以及安装流程
ComfyUI https://github.com/comfyanonymous/ComfyUI 最强
大
和模块化的稳定扩散 GUI 和后端。
ComfyUI
文生图
耗时7天,终于把15种ControlNet模型搞明白了
,一定能学会 另外,需要用到的整合包和模型也都给
大
家打包好
放
在网盘(链接在文章末尾) 花了很多时间才整理出来,希望对你有帮助 严禁抄袭搬运,势必追诉到底!
文生图
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
为什么要这样传输,从使用场景上来说,ChatGPT 是一个基于深度学习的
大
型语言模型,处理自然语言需要
大
量的计算资源和时间,响应速度肯定比普通的读数据库要慢 接口等待时间过长,显然不合适。
打字机
sse
大模型
人工智能
国内人工智能对北京高考微作文题目的回答
不
超
过150字。
中文
大模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
, '
大
模型行业的生成场景主要有对话交互,代码开发,智能体等。'
Prompt
大语言模型
RAG
开源
搞了一个Dify开源知识库
Workflow:打造你的智能工作流 · 初衷:也是在机缘巧合下,感谢MAX和众多
大
佬的呼声支持下
Dify
大模型
知识库
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ ChatGLM2-6b是
清
华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调
开源模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
WikiQA,它基于其他开源基础 QA 数据集 · 此外,我们还研究了训练集和评估集的对数损失 对于 LMSys 任务,我们生成了新的更长的测试用例,上下文长度高达约 25000,
超
出了原始数据集中的
开源模型
<
...
55
56
57
58
59
60
61
62
63
64
...
>
1
2
4
5
6
7
8
9
100