首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 教你用StableDiffusion设计AI数字人
· Midjourney AI绘画美女提示词分享一
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI换脸工具:facefusion使用心得
· Coze多智能体(Multi-Agents)模式体验!
· 第3期 SDXL和SD的10大区别!你知道几个?
· 惊了,ChatGLM、Vicuna 等热门大模型丝滑 input,跟所有的下载上传说拜拜
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
文
本
纠错 准确识别输入
文
本
中出现的拼写错别字及其段落位置信息,并针对性给出正确的建议
文
本
内容 task-oriented conversation
开源
大模型
国产编程大模型CodeGeex
其次,将提示(可以是任意描述或代码片段)写入
文
件tests/test_prompt.txt,运行以下脚
本
即可开始推理(需指定GPU序号): # On a single GPU (with more
编程
语音
6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
10种语言随便选,CPU就能实时合成,中英
文
混读丝滑得不像话。
MeloTTS
语音工具
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
ChatGLM2 6B 介绍ChatGLM2 6B 介绍 ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版
本
,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上
ChatGLM2-6B
盘点数据安全合规方向的热门证书【快来了解一下】
GDPR的相关培训是对数据隐私保护官的基
本
要求之一。
工作
LLM
2023年LLM如何入门?请看这篇综述!
常用语料库包括Common Crawl、维基百科、新闻数据、网络
文
本
等。
大模型
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
1、场景介绍 先介绍一下
本
文
讨论的问题场景,以传统的对话机器人为例。
大模型
开源
一个专业级 AI 聊天浏览器,开源了!
短短几天,该项目便增
长
了 2500 多个 GitHub Star。
开源
大模型聊天
RAG
检索增强生成 (RAG):What, Why and How?
由于LLM具有有限的上下
文
窗口
长
度,在处理当前任务时只能传递最相关的知识。
检索增强
大模型
GPTs
刚上线就崩了?字节版 GPTs 征战国内市场:无需编码,快速创建 AI 聊天机器人
有网友反馈,Coze 刚上线就崩了,InfoQ 实测发现,Coze 创建界面
长
时间显示确认中,或许与刚上线流量过大有关。
Coze
聊天机器人
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
然而,强化学习在实际应用中仍面临着训练时间
长
、样
本
效率低和稳定性问题等挑战。
大模型
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
随着当前多模态模型的发展,它可以同时处理
文
本
和图像,「那么能否将多模态模型应用到RAG系统呢?」
大模型
研究
大模型
大模型能力快速测评极简题目
用
文
言
文
表达这句话 以“春末夏初”为题,作一首藏头诗 以“草
长
莺飞”为题,写一首绝句 请以科幻小说的形式,改写《射雕英雄传》的结局 三个火念什么、三个土念什么 毒蛇用蛇毒毒毒蛇毒蛇会被毒蛇的蛇毒毒死吗
大模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
,提升模型在这些
长
尾数据上的表现。
知识库
RAG检索增强
Transformer
图解 transformer——逐层介绍
注意,在推理过程中,我们没有目标序列,而是循环地将输出序列送入解码器的嵌入层,正如第一篇
文
章所言。
Transformer
大模型
图解
<
...
64
65
66
67
68
69
70
71
72
73
...
>
1
2
4
5
6
7
8
9
100