首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 大模型微调方法总结
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 为你推荐开源项目:Meridian——专属个人情报站!
· ComfyUI 基础教程(一)环境部署和插件安装
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 6个最佳开源TTS引擎
· Suno音乐新手指南(手把手完整版教程)
· 【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
大模型
领域大模型LLM训练Trick
不过
GPT
系列大模型的预训练和微调,从实现方式上来讲是没有什么差别的,都是用decoder only的语言模型进行训练并更新参数,如果样本数量比较少,没有大量的篇章文档数据,个人认为只进行微调也能够注入知识
垂直
训练
大模型
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
与
GPT
-
4
等大型语言模型相似,Sora 能够解析文本并理解复杂的用户指令。
sora
论文
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
以
GPT
-2为基础,采用fill-in-middle(FIM)模式支持代码特有的补齐生成方法,引入Grouped-Query Attention和ROPE位置编码,最终形成了CodeShell高性能且易于扩展上下文窗口的独特架构
开源模型
AI编程
开源
摆脱 OpenAI 依赖,8 分钟教你用开源生态构建全栈 AI 应用
· Llama 2-Chat-70B:Llama 2系列模型是一组
GPT
-like
开源模型
ChatGPT
ChatGPT写论文最强指令
仅需三步)】 电脑端 1、浏览器访问天意云官网:https://cloud.dftianyi.com 2、注册并登录 3、登录后,点击右上角控制台,左侧点击ChatGPT,点击订阅通道(天意云
GPT
ChatGPT
指令
手把手教你认识学会LangChain
OpenAI的
GPT
-3是作为LLM实现的。
langchain
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!
它的小巧之处让它能够轻松地在各种本地设备上部署和运行,甚至可以作为离线聊天机器人使用,而且还能提供与
GPT
-3.5类似的性能水平。
Phi-3
Mini
开源模型
微软
RAG
检索增强生成 (RAG):What, Why and How?
RAG 与微调微调是在特定任务上训练模型的过程,就像在问题解答数据集上微调
GPT
-3.5 以提高其在特定数据集上的问题解答性能一样。
检索增强
大模型
ChatGPT
公司如何使用ChatGPT进行内容营销?
两个关键技术支撑着ChatGPT的潜力:
GPT
-3和它的先进性:作为
GPT
-3的后裔,ChatGPT受益于这个人工智能模型在语言理解和生成方面的突破,
GPT
-3类似人类的文本生成能力为ChatGPT
大模型
大模型
京沪“中国大模型第一城”争夺战爆发|钛媒体·封面
去年
4
月10日,AI上市公司商汤科技正式发布全新“日日新SenseNova”大模型体系,以及自研的中文语言大模型应用平台“商量”(SenseChat)。
大模型
钛媒体
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
此外,有传言
GPT
-
4
是 MoE,有道理的,因为与密集模型相比,为 OpenAI 运行和训练要便宜得多。
MoE
专家混合模型
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
由于我们现在知道 ChatGPT 是上下文感知的,我们可以继续根据之前的输出请求进一步的更改: 此外,我们可以继续这个上下文感知之旅,并通过根据之前的提示编写更复杂的逻辑来进一步操纵输出:
4
、
编程
提示词
chatgpt
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
4
.
大模型
清华
清华、面壁智能发布:主动式Agent 2.0
种子工作生成:使用
GPT
-4o基于人类标注者收集的种子工作创建各种任务,这些任务可能是用户在特定类别下执行的,如编码
Agent
2.0
大模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100