首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 聊天机器人阅读 PDF?用这25个提示词技巧,亲测有效!(ChatGPT & Claude 2)
· SDXL模型lora训练参数详细设置,显存占用22G,不用修脸原图直出
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Suno音乐新手指南(手把手完整版教程)
· 盘点字节跳动最新的AI应用
· 用so-vits-svc-4.1进行音色转换的极简教程!
· 换脸软件 FaceFusion 保姆级教程
· 强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
· 【工具书】基于角色和思维链的人工智能中文Prompt提示词,涵盖几乎所有场景
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
baichuan2 有什么好的 深挖论文中涉及的知识点
语言模型的规模已经从数百万参数(如 ELMo、
GPT
-1)增长到了数十亿甚至数千亿参数,例如
GPT
-3、PaLM 和 Switch Transformers。
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
ChatGPT
ChatGPT写论文最强指令
仅需三步)】 电脑端 1、浏览器访问天意云官网:https://cloud.dftianyi.com 2、注册并登录 3、登录后,点击右上角控制台,左侧点击ChatGPT,点击订阅通道(天意云
GPT
ChatGPT
指令
大模型
宁德核电推出全球参数量最大的核工业大模型|InfoQ 独家
据了解,「锦书」在内部被称为“全民
GPT
”项目,自 2023 年 5 月发起,旨在探索利用 AI 大模型解决核电行业面临的各种挑战,如知识管理不足、低脑力劳动过多、安全分析能力有待增强等。
宁德核电
大模型
ChatGPT
公司如何使用ChatGPT进行内容营销?
两个关键技术支撑着ChatGPT的潜力:
GPT
-3和它的先进性:作为
GPT
-3的后裔,ChatGPT受益于这个人工智能模型在语言理解和生成方面的突破,
GPT
-3类似人类的文本生成能力为ChatGPT
大模型
Sora
解读OpenAI Sora文生视频技术原理
自然语言理解,采用DALLE3 生成视频文本描述,用
GPT
丰富文本prompts ,作为合成数据训练Sora, 架起了
GPT
与 Sora语言空间的更精确关联,等于在Token与Patch
sora
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!
它的小巧之处让它能够轻松地在各种本地设备上部署和运行,甚至可以作为离线聊天机器人使用,而且还能提供与
GPT
-3.5类似的性能水平。
Phi-3
Mini
开源模型
微软
Prompt
结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
这些基本的语法已足以我们在创建结构化Prompt中使用了,也可以用于日常和
GPT
的对话中,以便
GPT
更好的识别你的意图。
Prompt
提示词
Markdown
大模型
如何构建基于大模型的App
例如,当需要重要推理任务时,可以使用
GPT
-4,然后使用
GPT
-3进行基本文本操作或完成。
构建
大模型App
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
为了测试模型的多模态对话能力,通义千问团队构建了一套基于
GPT
-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM
大模型
大模型
最新大模型面经+感受,4家大厂offer!
了解bert和
gpt
网络结构的细节及其差异吗?
大模型
面试
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
Anthropic 的 Claude 3 支持最多 20万token,而 OpenAI 的
GPT
-4 的上下文窗口为 12.8万个token,直到Gemini 1.5达到百万token。
大模型
上下文
大模型
垂直领域大模型的一些思考及开源模型汇总
LAW-
GPT
Github: https://github.com/LiuHC0428/LAW-
GPT
简介:中文法律大模型(獬豸) 数据:现有的法律问答数据集和基于法条和真实案例指导的
垂直领域
大模型
开源模型
汇总
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
基础模型主要包括以下几类: 1、大型语言模型(Large Language Models):如BERT、
GPT
-3、PaLM等,主要应用于自然语言处理任务。
论文
机器人
RAG
RAG 2.0,终于把RAG做对了!
并且结果无疑证明了这一点: 尽管使用的几乎可以保证是一个比
GPT
-4更差的独立模型,但这种新的方法是在
GPT
-4和其他检索系统之间所有可能的RAG 1.0组合中表现最好的。
RAG
大语言模型
<
...
19
20
21
22
23
24
25
26
27
28
...
>
1
2
4
5
6
7
8
9
100