首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
超级转化!5个让销售
数
字飙升的顶级 Prompts!
品牌可见性放
大
(我们存在) 如何让目标受众时刻记住我们的品牌?
Prompt
提示
开源
语音、视频转文字神器:开源whisper介绍
Whisper是通过收集来自多个
数
据
源(如YouTube、TED、Twitter等)的多语言、多任务的
数
据
进行训练的。
人工智能
大模型
wisper
HalluQA: 测测中文
大
模型有没有一本正经胡说八道
2023年下半年,百模
大
战时代热度不减,各家的中文
大
模型在代码推理、
数
学、代码、考试等任务上都取得了优异的性能,在模型评测方面也出现了Gaokao-Bench,C-Eval,AGI-Eval这些用于各项能力评测的优秀
数
据
集
大模型
中文大模型
幻觉
ChatGPT
使用ChatGPT检查论文引用、提高研究深度
ChatGPT作为一个先进的自然语言处理工具,能够在这一过程中提供巨
大
帮助。
ChatGPT
案例
智能知识图谱SmartKG和pySmartKG简介
它能够根
据
用户输入的实体和关系
数
据
自动生成知识图谱,并提供图谱可视化及基于图谱的智能对话机器人。
知识图谱
开源
腾讯开源的
数
字人MuseTalk到底行不行?
该模型能够根
据
输入的音频信号,自动调整
数
字人物的面部图像,使其唇形与音频内容高度同步。
MuseTalk
数字人
音频
ChatGLM
惊了,ChatGLM、Vicuna 等热门
大
模型丝滑 input,跟所有的下载上传说拜拜
你还在耗费十几个小时下载庞
大
的
数
据
集和模型吗?
下载
Stable Diffusion
Stable Diffusion教程:采样器
简单点说,前向扩散是将图片转换为
数
据
模型,而后向扩散是从
数
据
模型生成图片。
画图
SD
采样器
使用BELLE项目部署bloomz模型(专业程序员精简版)
中文对话
大
模型ELLE(BE Large Language Model Engine),基于BLOOM和LLAMA针对中文做了优化,模型调优仅使用由ChatGPT生成的
数
据
,为中文指令提供更好的支持。
belle
训练
大模型
OpenAI
【语音识别】OpenAI语音力作Whisper
与Wav2Vec 2.0等前作不同,以往的模型都是在未标注的音频
数
据
上预训练的,而 Whisper 是在
大
量的已标注音频转录
数
据
上预训练的。
语音转文字
whisper
数
字人:从科幻走向现实的技术革命
它们可以根
据
学生的学习进度和需求进行个性化教学,提高教育资源的利用效率和教育质量。
数字人
语音
工具
划重点!全网最全AI
数
字人工具合集!
今天,小编就来给
大
家分享五款AI
数
字人吧!
AI
数字人
SeaTable 一站式助力高校多场景
数
字化升级,打造高效解决方案
根
据
每个阶段教育的不同特点,其构建的
数
字化教育形式有所不同。
大模型
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等
数
据
集上的性能取得了
大
幅度的提升,在同尺寸开源模型中具有较强的竞争力。
ChatGLM2-6B
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参
数
高效微调
数
据
集准备 本文采用Stanford Alpaca中提供的alpaca_data.json指令
数
据
集进行参
数
高效微调,但是在Alpaca-LoRA中提到该
数
据
集存在一些噪声,因此,他们对该
数
据
集做了清洗后得到了
大模型
<
...
4
5
6
7
8
9
10
11
12
13
...
>
1
2
4
5
6
7
8
9
100