首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· 制作可爱的表情包
· AI声音克隆 | 最全最简教程(权威版)
· 盘点字节跳动最新的AI应用
· 胎教级SO-VITS-SVC使用教程:人工智能生成歌曲
· 智源:70万预算,从头开发千亿参数大模型,挑战成功!
· 【SD魔法手册】之25个常用服饰类咒语(Prompt)
· 超详细的 Stable Diffusion ComfyUI 基础教程(一):安装与常用插件
· ChatGLM智谱清言
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OCR
【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
导语:在当今数字化时代,人工
智
能
技术已经渗透到各个领域。
PaddleOCR
文字识别
开源
ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略
E7%BB%8D 1、ModelScope 社区简介 ModelScope 社区是什么 基于达摩院机器
智
能
开源
LLM
更强的小型LLM:Zephyr-7B
然而,它未
能
达到与原始
教
师模型相同的性
能
水平。
Zephyr-7B
大语言模型
大模型
大模型狂飙两年后,“六小龙”开始做减法
近期发布新数
学
模型K0-math的月之暗面,其创始人杨植麟就判断预训练的空间大概在半代到一代的模型,接下来最重点的方向会在强化
学
习上。
AI
大模型
Sora
一文带你看懂OpenAI-Sora生成视频的原理
想象一下,如果我们
能
够通过简单的描述就创造出动态的、互动的三维世界,那么
教
育、娱乐乃至科
学
研究将迎来怎样的变革?
视频生成
sora
开源
国内外开源大语言模型一览表
该项目通过医
学
知识图谱和GPT3.5API构建了中文医
学
指令数据集,并对LLaMa模型进行了指令微调得到了一个针对医
学
领域的
智
能
问诊模型HuaTuo,相比于未经过医
学
数据指令微调的原LLaMa而言,HuaTuo
大模型
开源
7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
RAGFlow大大提升知识库RAG的召回率,不仅
智
能
,而且可控可解释、真正在无限上下文(token)的场景下快速完成大海捞针测试、提供易用的 API,可以轻松集成到各类企业系统。
OCR
RAG
开源
大模型
百模大战,谁是大模型的裁判员?
定义了树-邻接语法(TAG)的阿拉文德·乔西(Aravind Joshi)
教
授,曾提出过“如果没有基准来评估模型,就像不造望远镜的天文
学
家想看星星。”
大模型
大模型
语言大模型100K上下文窗口的秘诀
本文作者Galina Alperovich是英国数据安全服务商Soveren的机器
学
习负责人。
大模型
ChatGPT
2万字大模型调研:横向对比文心一言、百川、Minimax、通义千问、讯飞星火、ChatGPT
星火大模型在
教
育、医疗、政务、司法等行业应用场景中广泛使用,尤其是在
智
能
语音合成、语音识别、语义理解和知识图谱构建等方面表现突出。
大模型
调研
ChatGPT
ChatGPT等大模型实用的提问技巧
举例 备注 语境描述 Context 提供外部信息或额外的上下文信息,引导语言模型更好的响应 比如:我是1名小
学
生
大模型
AI+音乐|对话 Suno CEO:破圈的音乐生成产品是如何诞生的?
Suno AI通过结合人工
智
能
技术与音乐创作,为用户提供了一个全新的音乐创作平台。
suno
音乐
提示词
十条最佳GPT提示词,让你成为任何领域大师
将产生 80% 的预期结果,并提供有针对性的
学
习计划来掌握它。
ChatGPT
AI提示设计技巧剖析 - 29个动词助你获取更好文本生成
提示:请用通俗的语言解释这篇人工
智
能
文章的主要观点,使不懂专业知识的读者也
能
理解。
提示词
文本
混合专家模型 (MoE) 详解
Mixtral 8x7B (announcement, model card) 的推出,一种称为混合专家模型 (Mixed Expert Models,简称 MoEs) 的 Transformer 模型在开源人工
智
能
社区引起了广泛关注
MoE大模型
<
...
31
32
33
34
35
36
37
38
39
40
...
>
1
2
4
5
6
7
8
9
100