首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 阿里Qwen3系列模型惊艳亮相
· Cursor 0.50 版本:一场惊艳的编程体验升级之旅
· Cursor设计主管分享AI写出高质量代码的12个超绝妙招
· 优言AI
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 大模型应用中大部分人真正需要去关心的核心——Embedding
· SD入门教程二:文生图基础用法(提示词)
· 划重点!全网最全AI数字人工具合集!
· 用上这10条神指令(prompt),让ChatGPT快速写出优质高分科研论文
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
中文开源OCR框架对比及介绍
字符切割:由于拍照、书写条件的限制,经常
造
成字符粘连、断笔,直接使用此类图像进行OCR分析将会极大限制OCR性能。
OCR
大模型
开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
例如:Meta 开发并
公
开发布的 Llama 2 系列大型语言模型 (LLM),这是一组经过预训练和微调的生成文本模型,参数规模从 70 亿(7b)
开源模型
Agent
十篇高质量的AI-Agents相关论文,让AI教你认识AI-Agents
我们在多个
公
共数据集上进行了实验评估,包括使用“合成”专家标注的真实世界医学数据集。
开源模型
Stable Diffusion
全面理解Stable Diffusion采样器
我们现在能使用 ODE 求解器就是由于作者在该论文中提出的替代概率流
公
式。
绘画
采样器
SD
大模型
大模型压缩首篇综述来啦~
这一突破性的结果证明了制
造
准确的4位量化LLM的可行性。
大模型
AI提示设计技巧剖析 - 29个动词助你获取更好文本生成
提示:请使用客观中立的语言把这篇文章改写成更
公
正合理的样子。
提示词
文本
一文带你认识ELMo
min-height: 0px; border: 0px; padding: 0px; margin: 0px; position: relative;">�� ,前向
公
式表示为
embedding
PDFTriage:面向长篇结构化文档的问答
市场推广:找出适合的应用场景(如金融、医疗等行业),帮助产品快速
打
透。
大语言模型
PDF
文档
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
的原理其实并不复杂,它的核心思想是在原始预训练语言模型旁边增加一个旁路,做一个降维再升维的操作,来模拟所谓的 intrinsic rank(预训练模型在各类下游任务上泛化的过程其实就是在优化各类任务的
公
共低维本征
大模型
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
KH(知识幻觉 Knowledge Hallucination):避免智能体在对话中创
造
或引用与角色身份不一致或不存在的知识。
LLM
Agents
LLM
AutoGPT与LLM Agent解析
理论上来说,如果这个 ASI(Artificial Super Intelligence)真的足够聪明,甚至可以产生代码给自己做 prompt 优化,流程改
造
,甚至持续的模型训练等,让 GPT 自己开发未来的
大模型
Stable Diffusion
硬核解读Stable Diffusion(系列二)
但是有时候我们可以使用不为空的negative_prompt来避免模型生成的图像包含不想要的东西,因为从上述
公
式可以看到这里的无条件扩散模型是我们想远离的部分。
StableDiffusion
文生图
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
用一个独立的FFN来编码和优化prefix参数,而不是直接优化soft prompt,因为它可能
造
成不稳定并损害性能。
大模型
微调
训练
混合专家模型 (MoE) 详解
有关更多信息,可以在 Mistral 的
公
告博客文章 中了解。
MoE大模型
<
...
67
68
69
70
71
72
73
74
75
76
>
1
2
4
5
6
7
8
9
100