首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI写作:爆款选题公式+Prompt指令,手把手教你写赚钱的公众号流量主文章
· 大模型评测新思路:弱智吧精华问题大全
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· 会议纪要类提示词大全-最全会议纪要prompt
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害
· ChatGLM智谱清言
· 更快更好的chatglm3来了
· ComfyUI安装及生成第一张图
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
我,大语言
模
型
作为大语言
模
型
,我只前向思考,不反向思考。
大模型
AI生成PPT不靠谱?那是你方法没用
对
大家可直接复制拿走,文末多给我们点点赞就可以了,感谢~ 这次测试的大
模
型
,依旧选用Kimi。
PPT
制作
AI
AGI
Yann LeCun杨立昆最新观点:AGI不存在
Yann LeCun 认为,自回归大
型
语言
模
型
(LLM) 并不是通往通用人工智能 (AGI) 的充分途径,因为它们缺乏智能生物的基本能力,例如
对
物理世界的理解和推理。
AGI
大语言模型
观点
语音
国内厂商语音识别与Whisper评测:现状与概况
对
比
面
对
上述如此之多的产品和服务,我们会很自然的产生疑
问
: “哪家的语音识别技术比较领先,识别准确率比较好?”
语音识别
Faster-Whisper
ChatGPT
11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
提示词工程是指精心设计有针
对
性的
问
题或陈述,以从 ChatGPT 等语言
模
型
中提取最有用、最准确和最全面的信息。
提示词
VividTalk:用一张照片和一段音频让人物栩栩如生地说
话
引言 在数字时代,技术的进步正在不断突破我们
对
现实与虚拟的界限。
VividTalk
视频
工具
五大AI工具自动生成PPT效果
对
比
选择Advanced Data Analysis
模
块,你可以直接生成PPT并下载。
PPT
办公智能
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
(也被称作自回归Transformer
模
型
)大语言
模
型
,Llama 2-Chat 针
对
聊天
对
话
场景进行了微调,采用了监督微调(SFT)和人类反馈强化学习(RLHF)进行了迭代优。
开源模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
, '大
模
型
行业的生成场景主要有
对
话
交互,代码开发,智能体等。'
Prompt
大语言模型
RAG
开源
截至2023年5月份业界支持中文大语言
模
型
开源总结及商用协议分析
系列 MOSS是复旦大学邱锡鹏教授开源的一个大语言
模
型
,由于其良好的意图识别能力和多轮
对
话
能力,被大家所关注。
大模型
面向知识图谱的大
模
型
应用
, 实现面向知识图谱的大
模
型
应用。
知识图谱
大模型
回望做大
模
型
一年后的感悟
o 普通开发者很难在大
模
型
预训练过程中参与,更多是在预训练完成后基于
模
型
做posttraining的工作 o LLaMA
对
国内大
模
型
的生态没有太大影响(仅针
对
预训练) 关于这些观点和别人产生讨论最多的是
大模型
感悟
阿里
体验完阿里的EMO
模
型
,我emo了
一、唠嗑 近日,阿里宣布通义千
问
研发的AI
模
型
—EMO
模
型
正式上线通义千
问
App,并开放给所有用户免费使用。
EMO
文生图
LLM
LLM大
模
型
推理输出生成方式总结
参数设置:do_sample = False, num_beams>1 缺点:虽然结果比贪心搜索更流畅,但是仍然存在生成重复的
问
题 Multinomial sampling(多项式采样) 方式
大模型
混合专家
模
型
(MoE) 详解
Switch Transformers 尽管混合专家
模
型
(MoE) 显示出了很大的潜力,但它们在训练和微调过程中存在稳定性
问
题。
MoE大模型
<
...
8
9
10
11
12
13
14
15
16
17
...
>
1
2
4
5
6
7
8
9
100