首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· PPT又又有新突破了!智谱AI代码流造PPT
· 「长文」可能是目前最全的LangChain AI资源库之一
· 硬核解读Stable Diffusion(系列二)
· 铁锅炖blender+ComfyUI配置,更改模型地址
· 推荐智能体:利用大模型进行交互式推荐
· AI虚拟主播数字人技术实现Wav2Lip
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· AI Agent的数字化革命:超越文本,走向自主决策与交互
· 盘点字节跳动最新的AI应用
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
CodeGeeX:Tab一下,代码自动生成
CodeGeeX含有40个transformer层,每层自注意力块的隐藏层维
数
为5120,前馈层维
数
为20480,总参
数
量为130亿。
大模型
大模型
Dify:大模型创业开源工具,46,558 行代码,完全开源
LLMOps: 随时间监视和
分
析应用程序日志和性能。
Dify
开源工具
Agent
2024年值得关注的Agent框架
OpenAGI: 这是一个开源的人工通用智能(AGI)研究平台,结合了针对特定任务如情感
分
析或图像去模糊化的小型专家模型和基于任务反馈的强化学习(RLTF)以改进其输出。
Agent
框架
SD 美颜修图神器
我们就直接上图来看看,不同参
数
值的图像效果对比吧。
SD
文生图
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
具体情况如下图,这三种不同来源的
数
据相互补充,
分
别作用于模型不同阶段的训练,三个源头的
数
据量逐渐递减,但是
数
据
数
量逐渐提升。
BGE
M3-Embedding
多语音检索
微调
一文讲明白什么是预训练、微调和上下文学习
预训练模型作为广泛的自然语言处理任务的基础,例如文本
分
类、命名实体识别和情感
分
析。
大模型
训练
爬虫
强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
它可以帮助用户快速、高效地获取微信公众号中的文章
数
据,并进行进一步的
分
析和处理。
微信爬虫
大模型
llm-action:让天下没有难学的大模型
(七)-最佳实践、总结 LLM微调实战 下面给大家
分
享大模型参
数
高效微调技术实战,该系列主要针对 HuggingFace PEFT 框架支持的一些高效微调技术进行讲解,共6篇文章。
大模型
LLM
一文搞懂贝叶斯定理有什么用
但是在现实世界中,除了抛硬币、掷骰子、玩老虎机等少
数
符合理想
数
学模型的场景,频率学派才能发挥作用。
贝叶斯定理
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
本次
分
享主要包含五块内容,
分
别是:一、Prompt 工程化:代码与模型解耦 二、私有化
数
据接⼊:持续更新与调整三、Agent 的演进:自动化编排四、我们最终会丢掉 LangChain
大模型
大模型
大模型量化:什么是模型量化,如何进行模型量化
一般来说,对于权重的量化,由于权重的
数
据
分
布是静态的,一般直接找出 MIN 和 MAX 线性映射即可;而对于推理激活值来说,其
数
据
分
布是动态的,为了得到激活值的
数
据
分
布,往往需要一个所谓校准集的东西来进行抽样
分
布
大模型
RAG
RAT = CoT + RAG
来自北京大学、加州大学洛杉矶
分
校和北京通用人工智能研究院的研究人员提出的 Retrieval Augmented Thoughts (RAT) 方法,旨在直接解决 LLM 中的事实准确性问题。
RAT
协同思维链
检索增强生成
Comfy肖像大师 非常推荐
用户可以根据这些参
数
自定义生成的肖像。
comfyui
文生图
大模型
大模型:泛化即智能,压缩即一切
这意味着我们可以让模型学习
数
据的
分
布特征,而不仅仅是优化特定的目标函
数
。
大模型
泛化
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:有如下几个原因: 只更新了部
分
参
数
:比如LoRA原论文就选择只更新Self Attention的参
数
,实际使用时我们还可以选择只更新部
分
层的参
数
; 减少了通信时间:由于更新的参
数
量变少了,所以(
大模型
<
...
81
82
83
84
85
86
87
88
89
90
...
>
1
2
4
5
6
7
8
9
100