首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 自己电脑上跑大语言模型(LLM)要多少内存?
· 性能超出预期!神秘的国产大模型 Kimi 开放 API
· Codeium
· 炸裂!百川开源第1个7B多模态大模型 Baichuan-Omni | 能够同时分析图像/视频/音频/文本
· RAG从入门到精通-RAG简介
· 大模型文本生成——解码策略(Top-k & Top-p & Temperature)
· AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
· OpenAI Assistants API 使用指南
· 基于 OpenAI Whisper 模型的实时语音转文字工具
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上
比如采用7nm工艺的A100 GPU,芯片(Die)面积为826mm² ,内有542亿晶体管;采用5nm(台积电N4)工艺的H100,芯片面积缩
小
为814mm² ,晶体管数量反而暴涨至
芯片拼接
芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
比如采用7nm工艺的A100 GPU,芯片(Die)面积为826mm² ,内有542亿晶体管;采用5nm(台积电N4)工艺的H100,芯片面积缩
小
为814mm² ,晶体管数量反而暴涨至
芯片拼接技术
写作
AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
来简单给大家介绍下我这几个月使用 chatGPT 辅助自己做自媒体写作的一些
小
成果: 首先是效率的提升,我之前一个知乎,一个公众号,还时不时断更。
AI写作
GPT
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
来源 | 《趣学贝叶斯统计:橡皮鸭、乐高和星球大战中的统计学》作者 | [美] 威尔·库尔特(Will Kurt)译者 |
王
凌云 1有超能力的朋友掷骰子 假设一个朋友告诉你,他能以90%
贝叶斯定理
解玄:共相、道、基类与战略
大师与解玄 大师干的活其实和战略差不多,当把名与名的运动体系和某种符号体系相结合的时候(文
王
拘而演周易,邹衍五德终始说等)产出的东西就是推背图等。
玄学
科学
RAG
RAG 2.0,终于把RAG做对了!
作为参考,《指环
王
》系列书籍总共有576,459个单词,而《哈利·波特》整个系列书籍大约有1,084,170个单词。
RAG
大语言模型
提示词
Kimichat炒股:7个提示词案例
用浅显明白的话语针对没有财务会计基础的
小
白进行解释 Kimi的回答: 有息负债率是一个财务指标,用来衡量一家公司在其负债中有多少是需要支付利息的。
Kimichat
提示词
停用词(Stop Words)的价值、收集与使用
在构造特征的时候,我选择了词袋模型,并按照教材里提示的方法、将词汇表中一些不重要词语给过滤掉,最后得到了一个维度为数千(远
小
于中文词汇表的大
小
)的特征。
停用词
教程
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
短
小
精悍!
Qwen1.5-MoE
大模型
下载
LLM
个人从零预训练1B LLM心路历程
这么棒的机器放着也是浪费,就琢磨着尝试从零训练一个
小
型号的LLM。
LLM
训练
说真的,学会用SD做电商图,你才是真的入了门
从2023年8月的时间节点来看,Stable Diffusion依然是
小
众产品。
文生图
SD
电商
Prompt
Prompt屠龙术-少样本示例
小
样本提示可以用作实现上下文学习(in-context learning)的一种技术,能够让我们在prompt中引导模型获得更好的性能。
Prompt
少样本示例
大模型
元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
该模型全开源,无条件免费商用,持续推动海量中
小
企业、研究者和开发者的研发和应用创新。
XVERSE-V
多模态大模型
如何用大语言模型构建一个知识问答系统
消耗的资源量虽然相对大模型预训练减少,但还是不容
小
觑的。
知识库
大模型
总结!大模型微调(Tuning)的常见方法
所需的微调量取决于任务的复杂性和数据集的大
小
。
微调
大模型
<
...
13
14
15
16
17
18
19
20
21
22
...
>
1
2
4
5
6
7
8
9
100