首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· PymuPDF4llm:PDF 提取的革命
· 高效选择:Ollama与LM Studio深度对比
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 十大开源语音识别项目
· 5个最佳开源RPA框架
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
简单提升RAG的10种方法
文档是否存在
多
模
态
数据?
RAG
大模型
RAG
RAG应用中数据处理过程需要注意的事项
数据格式和来源的
多
样性:将来自不同SaaS工具(如网站、pdf和音频文件)的数据转换为可用格式是很棘手的。
RAG
大模型
没有思考过 Embedding,不足以谈 AI
难以捕捉同质内容之间的共性,就意味着
模
型需要更
多
的参数才能描述同等的信息量,学习的过程显然困难也会更大。
开源模型
微调
Baichuan-13B 保姆级微调范例
适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~ Baichuan-13B是百川智能于2023年7月11日发布的开源中英双语LLM,各项指标经评测在开源LLM中同尺寸
模
型中位居前列
开源模型
金融
金融领域Prompt工程方法浅析
大
模
型全称是大型语言
模
型(LLM,Large Language Model),主要指
模
型结构复杂,参数
多
,用于预训练大
模
型的数据量大的神经网络
模
型。
prompt
大模型
ChatGLM
傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
话不
多
说,我们开始今天的部署!
ChatGLM3
大模型
Prompt
prompt必须知道的26条军规
weight ->想要在新域上获得较好的性能,预训练
模
型越大,fine-tune需要的数据也越
多
①大的LM有基于大量训练数据的天然的迁移学习能力,设计大LM的时候一般都想要让
模
型同时完成较
多
的任务
prompt
大模型
Prompt
17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
在o1前时代,思维链的实际情况跟我们真正想要的思考过程还是有很大的差距的,我们希望思维链是
模
仿我们人类的思考过程,但
模
型实际上只是
模
仿它在预训练中看到的所谓的推理路径。
prompt
大模型
Stable Diffusion
Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
LCM-LoRA是使用一致性方法通过Stable Diffusion基础
模
型(v1.5 和 SDXL)训练的 LoRA
模
型。
sdxl
SD
绘画
ComfyUI
【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
虽然现在已经有很
多
大佬分享了自己的工作流,但我还是建议大家能自己先手搓一下,一是为了搞懂SD的工作原理;二是因为自己连的工作流出图的那一刻,这个成就感是无与伦比的。
开源模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
/chatglm2-6b 下载chatglm2的
模
型。
开源模型
RAG
12个RAG常见痛点及解决方案
如果源数据质量很差,比如包含冲突的信息,那么无论构建的RAG管道有
多
好,它都无法从提供给它的垃圾中输出黄金。
RAG
大模型
GPTs
小心你的GPTs 防守篇 - 自带六神装的高防GPTs
距离我们 GPTs 攻防的上篇发布到现在已经过去了两周,也有很
多
的群友积极参与了我们的攻防活动,但是截止目前还没有人破解到我们的 prompt,不少群友想要我们分享一下防守的经验,这一篇我们就来为大家带来
GPTs
大模型
微调
LLM微调经验&认知
例如用高质量领域数据集进行微调,
模
型可以学会很
多
本身不具备的新技能。
LLM
大模型
RAG
如何提高RAG 的效果
预设
多
个Prompt
模
板 这个笔者在前面的文章中也提到过,比如:检索的质量较高的情况下,可以使用完全根据参考信息来回答的Prompt
模
板,在检索不到内容或者检索的质量低的情况下,可以让
模
型根据自己的知识来回答
RAG
大模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100