首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· ComfyUI的特性以及安装流程
· 【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 数字人直播哪家强?中国数字人平台分析大全
· AI自动生成视频全流程干货
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 初创企业必知的 30种商业模式(附实例)
· 国产视频制作之光-可灵:提示词大全整理
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
那么,FLM团队是如何把训练成
本
降低近50倍的呢?
大模型
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
本
文
将为大家详细介绍。
HAI-Chat
RLHF
ChatGPT
巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
10 - 撰写一篇详细的论
文
/
文
本
/段落/
文
章时,可以这样指示:“请为我详细写一篇关于[主题]的[论
文
/
文
本
/段落],并添加所有必要的信息”。
prompt
提示词
GPTs
“How to make money with GPTs” 教你集成第三方url的Action+知识库的完整版GPTs
抢先体验我们Meal Mentor的v1.0版
本
!
GPTs
知识库
腾讯
深度体验3天后,我把腾讯这款copilot锁进了程序坞
其中,搜索框支持
文
字输入、
文
档输入、截图输入,下方的两个按钮是
文
档解读和智能写作。
copilot
ima
知识库
ChatGPT
从 ChatGPT 系统提示中,分享几个拿来就能用的prompt提示工程技巧
不过好在之前就有大佬在github上分享出来了,在
文
末我也一并附上分享给大家。
ChatGPT
prompt
心理
心理健康AI应用空白:LLM评估基准震撼出炉(附Prompt模板)
此外,研究也指出了模型在处理长
文
本
和
语
言特异性训练方面的限制。
大模型
心理
大模型
会“追问”的Agent,大模型知识库另类实践
(Chunk)无法保证
语
义的准确性。
大模型
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
1、场景介绍 先介绍一下
本
文
讨论的问题场景,以传统的对话机器人为例。
大模型
微调
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
Augmented Generation (RAG 检索增强生成) · · 微调 · · 从头开始训练基础模型(FM) ·
本
文
将试图根据一些常见的可量化指标
生成式AI
RPA机器人实现网页自动翻页功能
RPA旨在通过模拟和整合人类用户在数字系统中的交互,实现对现有应用程序的自动化操作,从而提高工作效率、减少错误、降低成
本
,并释放员工精力,让其更多地从事创造性和战略性工作。
RPA
自动
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
此前,DataLearner曾经从理论上给出了大模型显存需求的估算逻辑,详细说明了大模型在预训练阶段、微调阶段和推理阶段所需的显存资源估计(参考:需要多少GPU显存才能运行预训练大
语
言模型?
大模型
健康
教小朋友学习AI绘画的同时避免生成不健康图片
然后将模型
文
件及josn
文
件拷贝进去。
小朋友
绘画
GPTs
如何快速构建GPTs个人知识库应用?
GPTs 是一个创新方式,允许任何人根据自己的日常需求、特定任务、工作或家庭生活,定制个性化的 ChatGPT,并且可以将这些定制版
本
分享给他人。
GPTs
知识库
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
在前几天的vllm meetup上,贾扬清给出了一些讨论,他认为我们目前可能高估了大模型的聊天应用成
本
。
大模型
<
...
86
87
88
89
90
91
92
93
94
95
...
>
1
2
4
5
6
7
8
9
100