首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 3.5k star!一款万能的 SQL 分析工具,厉害了!
· PPT又又有新突破了!智谱AI代码流造PPT
· Deepseek-V2技术报告解读!全网最细!
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· SD入门教程四:图生图基础用法
· StableDiffusion模型推荐系列(功能型)
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 盘点字节跳动最新的AI应用
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
写作
AI写作:爆款
选
题公式+Prompt指令,手把手教你写赚钱的公众号流量主文章
选
择
不是热门焦点但具有深刻内涵的事件,或者从一个大事件中挖掘出一个小切入点进行深入探讨。
prompt
写作
大模型
总结!大模型微调(Tuning)的常见方法
与
Full-finetuning 更新所有参
数
的方式不同,该方法是在输入 token 之前
构
造
一段任务相关的 virtual tokens 作为 Prefix,然后训练的时候只更新 Prefix 部分的参
数
微调
大模型
大模型
造
梦师手记:C站最受欢迎的大模型推出了SFW版
采样器:DPM++ SDE Karras 步
数
:4-7 CFG:2-4 欢迎来到秒级出图时代!
DreamShaper
大模型
文生图
LangChain 完整指南:使用大语言模型
构
建强大的应用程序
LangChain 可以轻松管理
与
语言模型的交互,将多个组件链接在一起,并集成额外的资源,例如 API 和
数
据
库。
langchain
大模型
LLM
Agent : 一文读懂LLM Agent架
构
,详解Profile,Memory,Planning,Action模块作用
数
据
集对齐方法:是从真实世界的人口
数
据
集中获取代理的配置文件信息,比如通过抽取人口调查
数
据
组织成自然语言描述。
大模型
LLM
Agent
大模型
大模型的研究新方向:混合专家模型(MoE)
MoE的稀疏性
与
dropout的原理类似,MoE是根
据
任务的具体情况
选
择
激活一定
数
量的专家模型来完成这个任务,而dropout则是对神经网络中的神经元进行随机性失活,每次训练的时候只保留一定的参
数
,这不但让网络具备了稀疏性特征
MoE
大模型
京东
多智能体开发框架怎么
选
型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
它是一套顶级的乐高积木,让你自由搭建属于自己的“认知架
构
”,打
造
核心竞争力。
JoyAgent
langchain
LangGraph
换脸
AI 换脸——Deepfacelab 下载
与
安装,新手教程
jpg 采用有损压缩的方式去除图像的冗余
数
据
,存在着一定可接受范围内的失真。
Deepfacelab
换脸
大模型
大模型
与
游戏结合的一个思路
关于人工智能
与
游戏的结合,笔者曾写过一篇文章,《真正的人工智能应用于游戏》。
人工智能
游戏
停用词(Stop Words)的价值、收集
与
使用
在
构
造
特征的时候,我
选
择
了词袋模型,并按照教材里提示的方法、将词汇表中一些不重要词语给过滤掉,最后得到了一个维度为
数
千(远小于中文词汇表的大小)的特征。
停用词
生成式AI
与
大语言模型的区别
例如,一个图像生成模型可能会在
数
百万张照片和绘画的
数
据
集上进行训练,以学习
构
成各种视觉内容的模式和特征。
生成式AI
大语言模型
区别
RAG
检索增强生成(RAG)有什么好的优化方案?
二、RAG架
构
优化 2.1 Vector+KG RAG 经典的RAG架
构
中,context增强只用到了向量
数
据
库。
RAG
检索增强
Transformer
Transformer速查宝典:模型、架
构
、训练方法的论文都在这里了
该
数
据
集主要由过滤后的 Common Crawl 以及一些书籍、网络文本和维基百科
构
成; · 使用了 BPE tokenizer(
与
GPT-2 相同); · 2048 上下文长度
Transformer
RAG
RAG——使用检索增强生成
构
建特定行业的大型语言模型
微软如何解决这个问题 在微软的Build会议中,他们在向量搜索不够用[5]这个主题中,阐述了他们的产品如何将较少的上下文感知的大型语言模型
与
向量搜索结合起来,以创
造
更具吸引力的体验。
大模型
将任意文本转换为知识图谱
这些信息通常存储在图形
数
据
库中并可视化为图形结
构
,从而产生了知识“图形”一词。
知识图谱
转换
文本
<
...
7
8
9
10
11
12
13
14
15
16
...
>
1
2
4
5
6
7
8
9
100