首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· 【ComfyUI】爽玩必备!6大插件汇总推荐
· 将任意文本转换为知识图谱
· PPT又又有新突破了!智谱AI代码流造PPT
· Midjourney 实现角色一致性的新方法
· 国内法律类大模型介绍
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· 实测:本地跑llama3:70B需要什么配置
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
一、ChatGPT简介及原理 ChatGPT是由OpenAI研发的基于GPT模型的语言
生
成
器。
ChatGPT
写作
写作
一个写了会上瘾的公众号写作模板
接下来,就分享一下我最初坚持下来的写作模板,从日常的
生
活去入手,或许能够让你觉得写作其实原来如此的简单,更加容易坚持下去。
公众号
写作模版
ChatGPT
15种ChatGPT高频用法
健康与健身健康信息、健身计划、运动建议、饮食建议、习惯养
成
、心理健康、伤病预防与康复、健康监测、健康挑战 6.
大模型
效率
Transformer
TrOCR——基于transformer模型的OCR手写文字识别
这是因为 DeIT 模型统一了输入图
片
的尺寸。
OCR
手写
文字识别
ChatGLM
在Win11上部署ChatGLM3详细步骤
lfs install git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git 全模型文件如下图: 4、下载后,按
照
之前的方法
大模型
ChatGLM
智普
Agent
AI Agent新对决:LangGraph与AutoGen的技术角力
组装、可用Tools信息、大模型调用、输出
格
式化等这些LLM 应用中的常见动作,组装
成
一个可以运行的“链”式过程。
LangGraph
AutoGen
对决
中本聪的Web3之路
这样,就可以保护用户免受身份盗用或数据泄露的
风
险。
token
比特币
加密货币
从⼤模型到 AI 应⽤落地,工程实现有多复杂?
它以强⼤的语⾔理解和⽣
成
能⼒,正在重塑许多领域。
大模型
大模型
快手大模型出炉!【快意】来袭!
· KwaiYii-13B-Chat对话模型具备出色的语言理解和
生
成
能力,支持内容创作、信息咨询、数学逻辑、代码编写、多轮对话等广泛任务,人工评估结果表明KwaiYii-13B-Chat超过主流的开源模型
开源模型
大模型
10个大模型私有化需要关注的问题
但有一些关键因素需要考虑才能确保能够
成
功落地实施。
开源模型
Prompt
如何看待大型语言模型的Prompt
他们发现,
生
成
的嵌入空间不仅能捕捉语义相似性,还具有某种形式的涌现学习能力——它能够执行“词算术”,这是它未经训练就能做到的事情。
prompt
大语言模型
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
而
成
年人的平均阅读速度在每分钟200-300个单词之间,不过不同的人差别很大,下图展示了一些研究结论: 可以看到,根据相关的研究,高中
生
的阅读速度是每分钟300个单词左右,而
成
年人在每分钟
大模型
大模型
8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型
然而,大模型也意味着高昂的硬件
成
本,让不少平民玩家望而却步。
大模型
Prompt
自从prompt用了示例演示,GPT的输出稳定性达90%
; 示例与GPT提示词的定义 · GPT通过prompt(简短的文字指令或问题)来对应
生
成
文本
prompt
提示词
大模型
大模型微调方法总结
结合图
片
来看,LoRA 的实现流程如下: ● 在原始预训练语言模型(PLM)旁边增加一个旁路,做一个降维再升维的操作,来模拟所谓的内在秩。
开源模型
<
...
75
76
77
78
79
80
81
82
83
84
...
>
1
2
4
5
6
7
8
9
100