首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 自己电脑上跑大语言模型(LLM)要多少内存?
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 大模型评测新思路:弱智吧精华问题大全
· 你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· 完全指南——使用python提取PDF中的文本信息(包括表格和图片OCR)
· Stable Diffusion 年龄转换神器,一键变大变小
· 我为什么不看好大模型行业
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
model_cfg.num_hidden_layers, len(experts), model_cfg.hidden_size) ) 这段代码是一个条件
语
句的一部分
MoE
专家混合模型
AI知识库总是不准?教你无脑用GPT整理结构化数据集...
我见过太多直接就把小说、把几十篇乱七八糟的文章往里面灌的,也太高看现在LLM的能力了,那里面的数据都乱成一团,一堆乱七八糟的口
语
化的甚至是无效信息,能准吗?
GPT
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
ensp; |-- self_cognition.jsonl 7、ToDo List 调整Xtuner训练模板,支持英
语
对话中的自我认知微调
Llama3
对话问答模型
Meta
如何微调Meta Llama-3 8B
目录概览: 微调微调是机器学习中使用的一种技术,尤其是大型
语
言模型 (LLM)。
Meta
Llama
3
大模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
因为ChatGLM2基座模型是一个TransformerDecoder结构,是一个被预选练过的纯粹的
语
言模型(LLM,Large Lauguage Model)。
开源模型
Stable Diffusion
Stable Diffusion WebUI v1.9.0重大更新!
防止Firefox中的alt菜单 · 修复:修复
语
法错误
Stable
Diffusion
文生图
大模型
大模型
大模型微调数据选择和构造技巧
多样性即为数据的去重,去重这件事的核心是相似度度量,现在的相似度度量方法大家用的比较多的是基于对比学习构造的
语
义向量这套思路,当然简单的基于词袋或者tfidf的方案也是可以的。
大模型
微调
一文搞懂贝叶斯定理有什么用
提前准备好大量的中文
语
料,计算出任意两个词的条件概率,我们就可以得出哪种分词更合理。
贝叶斯定理
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
我们可以看到,在基于嵌入的检索中,前两个文本包含了车祸的
语
义,但没有提供关于谁是真正责任人的细节。
大模型
SDXL
它来了!SDXL + ControlNet 终于强强联合!
就好比当我们想要一张“鲲鲲山水图”的时候,会发现很难通过
语
言来描述这样的景象。
SDXL
Deepseek-V2技术报告解读!全网最细!
Decoder层进行第一层计算,这层模型的attention计算设定与后续59层基本一致,唯一区别是这一层的mlp层固定为8个专家的宽度,没有门控额外参数激活的设定,这一设置与每层共享专家的设定一样,研究者希望
语
言生成的公共知识
Deepseek-V2
大模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
为什么要这样传输,从使用场景上来说,ChatGPT 是一个基于深度学习的大型
语
言模型,处理自然
语
言需要大量的计算资源和时间,响应速度肯定比普通的读数据库要慢 接口等待时间过长,显然不合适。
打字机
sse
大模型
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
· 去掉样本中明显的
语
气词,如嗯嗯,啊啊之类的。
大模型
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
对于这类文本,我们的策略是把多级标题提取出来,然后适当做
语
义扩充,或者去向量库检索相关片段,最后用LLM整合即可。
大模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
我见过太多直接就把小说、把几十篇乱七八糟的文章往里面灌的,也太高看现在LLM的能力了,那里面的数据都乱成一团,一堆乱七八糟的口
语
化的甚至是无效信息,能准吗?
LangChain
知识库
<
...
77
78
79
80
81
82
83
84
85
86
>
1
2
4
5
6
7
8
9
100