首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Sara2.ai
· 宁德核电推出全球参数量最大的核工业大模型|InfoQ 独家
· 产品运营全流程SOP
· 硅基智能
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
· Coze多智能体(Multi-Agents)模式体验!
· SD入门教程五:后期处理图片高清放大
· 6个最佳开源TTS引擎
· 大模型评测新思路:弱智吧精华问题大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
VividTalk:用一张照片和一段音频让人物栩栩如生地说话
这包括了
混
合形状和顶点偏移的使用,为模型提供了高度的表达能力。
VividTalk
视频
教程
GPTs+Notion,打造最强GPTs数据处理方案!喂饭级教程!
除此之外,还有一个好处是避免了直接在ChatGPT聊天窗口呈现大篇幅内容,字符的逐一打印不仅耗时,还可能与实际攻击行为产生
混
淆。
GPTs
Notion
Python
Python状态机:优雅处理复杂业务逻辑的利器
在实际应用中,我们经常会使用这两种状态机的
混
合形式。
Python状态机
设计模式
开源
[中文开源震撼首发]33B QLoRA大语言模型Anima真的太强大了!QLoRA技术可能是AI转折点!
问题:完成以下的编程任务:用python写一下不带注释的Dijkstra算法的代码 回答: 问题:如果将红色和黄色
混
合在一起会是什么颜色?
开源模型
AI拟声: 5秒内克隆您的声音
你可以使用它来录制音频片段,并进行剪辑和
混
音,制作出独一无二的音乐或配乐。
声音克隆
开源
Elasticsearch 中的向量搜索:设计背后的基本原理
然而,正如我们稍后将在“优点”部分中看到的,将向量与段联系起来也是实现高效预过滤、高效
混
合搜索和可见性一致性等主要功能的原因。
向量数据库
大模型
Dify:大模型创业开源工具,46,558 行代码,完全开源
GitHub 项目地址:https://github.com/langgenius/dify (Dify.AI 采用 Apache 2.0+MIT
混
合开源协议) Dify.AI
Dify
开源工具
ChatGPT
麦肯锡专家都在用的方法:用ChatGPT速览用户研究领域的 50 个核心概念
研究方法 Mixed Methods
混
合方法
用户
工作
FaceFusion又更新咯,增强功能再增强!
GFPGAN 和 GPEN 添加到面部增强器 将 RealESRGAN_x2plus 和 RealESRNet_x4plus 添加到帧增强器 实现面部增强器和帧增强器的
混
合
FaceFusion
文生图
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
(3)语义检索可以考虑采用 GPU 进行并行加速,或者使用量化、
混
合精度技术来加速查询。
大语言模型
RAG检索增强
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
指令调优 谷歌通过在仅文本、仅英语合成和人类生成的 prompt 响应对的
混
合数据上进行监督微调(SFT),以及利用在仅英语标记的偏好数据和基于一系列高质量 prompt
开源模型
Gemma
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
另外,中英文
混
合数据的处理也是一个问题,模型需要在中英文上都表现良好,有效地跨语言工作。
智谱
AI
OpenAI
OpenAI 无需向量化的 RAG 新架构设计范式剖析
这种迭代方式比一次性将文档切成数百份并让大模型挑选的效果更好,因为切得太细碎反而可能让大模型感到
混
乱。
OpenAI
RAG
架构
开源
3 个令人惊艳的 AI 文档神器,开源了!
在答案中
混
入了各种不准确信息,在无形之中,增添了用户的信息筛选成本。
大模型
开源模型
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
ChatGLM2-6B 使用了 GLM 的
混
合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、
ChatGLM2-6B
<
...
10
11
12
13
14
15
16
17
18
19
...
>
1
2
4
5
6
7
8
9
100