首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 我去,找到一个Github上非常优秀的AI项目,可控制鼠标、键盘,模拟人类操作,太丝滑,收藏~~~
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· 阿里云王坚:中国AI不惧R2迟发!靠「群体智能」破局:算力不是瓶颈,但AI应用层急需炸开OpenAI想象围墙!不看好硅谷抢人乱象
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· Suno音乐新手指南(手把手完整版教程)
· 开源大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
· 通往AGI之路,提示词入门
· RAG超参数调优食用指南
· 大模型评测新思路:弱智吧精华问题大全
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
微软的几个点给我印象深刻:
1
、50%左右的人没有用过AIGC; 2、80%的人只用过简单的提示词,把AI作为知识库; 3、90%的人过度理解AI,AI可以解决一切。
大模型
ChatGPT
建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
四、特定要求
1
)结合背景知识 相比于上面直接的润色,这种方式可能会让它输出一些更丰富的信息。
论文润色
写作
PDFTriage:面向长篇结构化文档的问答
三、PDFTriage:从文档元数据中进行结构化检索 PDFTriage方法包括三个步骤来回答用户的问题,如图
1
所示:
1
.
大语言模型
PDF
文档
Stable Diffusion
Stable Diffusion|提示词高阶用法(四)LoRA指定区域
<lora:LoRA模型的名称:LoRA权重值:分层权重值代码>
1
2
文生图
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
▲图
1
.由Stable Diffusion3生成。
OpenELM
大模型
被高估的Pika,被低估的多模态AI
1
.Pika:实力还是炒作?
大模型
多模态
AI改变未来,ChatDoc手把手教你写研报
免费版支持20页,36M文件,但考虑到大部分上市公司年报都
1
-200页左右,所以免费版不太够用,而付费版也不算贵,500页、每月300个文件,月付才5.99刀(年付优惠59.9刀)。
大模型应用
写作
开源
Github2.1万星!开发者的“瑞士军刀” 开源!
以下是 DevToys 的一些关键特点:
1
.
DevToys
工具集
开源
OpenAI
【语音识别】OpenAI语音力作Whisper
whisper 二、数据处理 利用互联网上的网络规模文本(人类/机器生成的混合数据)来训练,但存在大量低于标准的转录文本,所以开发了几种自动过滤方法来提高转录质量:
1
.
语音转文字
whisper
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
关于这部分的内容有一些十分有价值的信息:
1
.
大模型
微调
LLM微调经验&认知
原文地址:https://zhuanlan.zhihu.com/p/634180659 · 关于认知 ·
1
.
LLM
大模型
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
给定的上下文: """ last_prompt = """ 请综合上述信息,你给出的回复需要包含以下三个字段:
1
.questions: 基于上下文内容,提出与这个内容相关的问题,至少两个以上。
大模型
人工智能
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
该评估器有如下优势:
1
.
Auto-J
大模型
ChatGPT
PHP提示词技巧,全方位精调ChatGPT复杂任务生成效果!!!
故事大纲:
1
.开场: 描述国家正面临政府关闭的严重危机,而参议员们却在会议室争论着装规定。
大模型
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
SFT 的步骤
1
.
大模型
<
...
16
17
18
19
20
21
22
23
24
25
...
>
1
2
4
5
6
7
8
9
100