首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· MCP服务介绍及应用场景报告-来自Manus
· 实测:本地跑llama3:70B需要什么配置
· AI声音克隆 | 最全最简教程(权威版)
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 一文汇总市面上所有prompts提示词框架
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 社区供稿|GPT-4 与国产模型,大!横!评!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
从 ChatGPT 系统提示中,分享几个拿来就能用的prompt提示工程技巧
不
过
好在之前就有大佬在github上分享出来了,在文末我也一并附上分享给大家。
ChatGPT
prompt
大模型
国产AI大模型哪家强?十大维度横评四款主流大模型!
大家则可以通
过
下面详细的评测
过
程进行了解。
开源模型
Prompt
Prompt工程入门
例子1:外科医生 你是一名经验丰富的外科医生,请讲解急性阑尾炎的治疗
过
程。
prompt
提示词
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
语义切分
合
并则侧重于将语义相似的内容动态组织在一起,通
过
为每个内容块生成描述性的句子来创建索引,这样可以提高检索效率,但有时可能会因为
合
并不当而丢失关键上下文。
LLM
Agents
免训练!单图秒级别生成AI写真,人像生成进入无需训练的单阶段时代
原理 FaceChain FACT(Face Adapter)之所以能够跳
过
训练阶段,是因为它经
过
了百万级别的写真数据训练,从而使得 Stable Diffusion 具备了强大的人脸重建能力
FaceChain
FACT
文生图
开源
接私活必看的11个开源项目
节日假期已经接近
过
半,如何利用小假期承接私活,赚口粮、赚零花钱。
私活
开源项目
AI探索-我怎么使用Kimi Chat的
不
过
要注意,目前Kimi单窗口只支持到20万字的额度,不
过
这些也够用了,你把数据整理好,大不了按照分类/日期等等维度,多整几个分身嘛。
KimiChat
写作
ChatGPT
ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
通
过
明确的指令和格式,我们能够简化交流
过
程并得到满意的结果。
ChatGPT
大模型
懒人福音!用AI生成会议纪要,让你的工作更高效!
想象一下,你参加了一场马拉松式的会议,讨论了无数议题,喝了无数杯咖啡,但最后大脑却像被咖啡泡
过
的海绵,满是疲惫和混沌。
会议纪要
AI工具
Agent
LangChain Agent 原理解析
ReAct ReAct 是一个结
合
了推理和行动的语言模型。
大模型
语义检索系统[全]:基于Milvus+ERNIE+SimCSE+In-batch Negatives样本策略的学术文献语义检索
ChatGPT模型的能力上限是由奖励模型决定,该模型需要巨量的语料来
拟
合
真实世界,对标注员的工作量以及综
合
素质要求较高。
开源模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
几种常用Rerank组
合
评测; 如何在自己的产品中使用Rerank?
RAG
检索增强
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
它们可以通
过
训练海量数据来学习复杂的模式和特征,并具有更强大的泛化能力,可以对未见
过
的数据做出准确的预测。
大模型
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
而生成式更为深入,也更符
合
人类喜欢的学习模式,能够举一反三,从事实原因来顺推结果,但这个推理
过
程,自然需要大量的样本和算力支持,它不仅能够简单判别,而且它学到的事物真实的本质,即概率分布,故而泛化性强,
LLM
模型压缩:量化、剪枝和蒸馏
若单个参数元素绝对值
过
小或对模型不重要,则可以通
过
将其置为0 元素来减小存储空间,缩短推理时间。
BERT
语言模型
<
...
44
45
46
47
48
49
50
51
52
53
...
>
1
2
4
5
6
7
8
9
100