首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Trickle + Nano Banana,我给老婆 VibeCoding 了一个虚拟试衣间
· Sara2.ai
· AI声音克隆 | 最全最简教程(权威版)
· 从专业ASR到统一音频LLM:七大顶尖模型的深度对比分析
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 腾讯开源混元AI绘画大模型
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
5.Batch Count 批次
数
量,我更愿意用下面的 Batch size 调整生产图的总
数
。
Stable
Diffusion
图生图
RAG
LangChain - RAG:线上系统多文档要频繁更新,每次都要重新花钱做一次 embedding,老板不批预算,批我...
图二:关键在于,在 embedding 之前记录一下 chunks 的哈希值 详细看一下 LangChain 是怎么帮忙开发
人
员化解这个问题的,首先如上图所示,我们需要一个对象来记录、管理文档 chunks
大模型
开源
搞了一个Dify开源知识库
新手村 新手村:从dify介绍,在线使用初体验,dify安装与部署(适用于技术
人
员)进行展开。
Dify
大模型
知识库
大模型
大模型:泛化即智能,压缩即一切
这种举一反十的能力就是我们常说的泛化能力,可见在孔子看来一个
人
的泛化能力才是决定了其上限的根本。
大模型
泛化
大模型
大模型应用的10种架构模式
面向微调的分层缓存策略模式 我们将缓存策略和相关服务引入到大模型应用架构中,可以成功地解决成本、
数
据冗余以及训练
数
据等组合问题。
大模型
架构
LLM
AutoGPT与LLM Agent解析
计算器,用来执行各种
数
学计算获取精确结果,输入表达式,例如 1 + 1,得到结果 ...
大模型
LLM
Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
通过其独特的 Modelfile 系统,用户可以自定义模型的提示词(Prompt)和参
数
设置,并通过 API 调用动态切换模型。
LLM
服务框架
LLM
一文探秘LLM应用开发-Prompt(相关概念)
提示是描述
人
工智能应该执行的任务的自然语言文本。
prompt
大模型
大模型
释放潜能:大模型与企业微信SCRM系统的完美结合
企业微信SCRM系统的核心功能有以下几个方面:• 客户画像:通过对客户的聊天记录、消费行为、社交媒体等
数
据进行分析,生成更加细致和全面的客户画像,帮助企业进行精准营销和个性化服务
SCRM
大模型
语音
解读wav2lip:探究语音驱动唇部动作的技术原理!
Fig.1 wav2lip architecture 2.1
数
据集处理 本文使用的LRS2
数
据集,来自BBC的唇语视频,包含4万多个口语句子,它的训练集、验证集和测试集是根据广播日期进行划分。
wav2lip
语音
微调
一文讲明白什么是预训练、微调和上下文学习
预训练的主要下游任务如下: 文本生成:预训练模型可以生成连贯且上下文相关的文本,使它们对聊天机器
人
、虚拟助手和内容生成等应用程序有价值。
大模型
训练
ChatGPT
用ChatGPT辅助学习,成为超级学霸
这是许多
人
终其一生都难以解答的谜题,而答案其实不言而喻:每位学生的学习体系各异。
教育
AI
学习
AI的百亿套壳:做船不做柱子
先说 Cursor,四位创始
人
都是MIT的应届生,CEO Michael Truell创业的时候25岁,是计算机和
数
学的双学位。
AI
创业
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
1.3、每个Token仅需2个专家即可高效处理 Mixtral 8x7B最引
人
注目的特点之一是其对处理效率的强调。
开源模型
Mixtral
8x7B
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
多语言处理、符合
人
类喜好、智能体能力,还有检索增强生成,它都游刃有余。
Qwen1.5
开源模型
<
...
78
79
80
81
82
83
84
85
86
87
...
>
1
2
4
5
6
7
8
9
100