首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· AI Agent新对决:LangGraph与AutoGen的技术角力
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· 使用 Dify 和 Moonshot API 构建你的 AI 工作流(一):让不 AI 的应用 AI 化
· Suno音乐新手指南(手把手完整版教程)
· SD入门教程二:文生图基础用法(提示词)
· Stable Diffusion教程:绘制3D风格的手办公仔
· 确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
· 最新【Fooocus】支持controlnet!生图效果惊艳,附带保姆级安装教程
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
零代码编程:用ChatGPT打造一个信息推送的
微
信机器人
很多时候,我们希望监控一些最新信息,能够第一时间在
微
信上看到。
ChatGPT
Stable Diffusion
Stable Diffusion|儿童绘本全流程制作
分
享
今天
分
享一个如何用Stable Diffusion制作儿童绘本,儿童绘本制作起来会稍
微
简单一些。
StableDiffusion
绘本
回归
分
析:探索变量之间的奥秘
一、开启探索之旅 回归
分
析,这把探索世间万物背后逻辑的钥匙,能够解锁变量之间的关系。
回归分析
变量
SDXL
分
享使用SDXL 1.0模型的一些技巧和心得
今天这个文章,我要和大家
分
享一些使用SDXL 1.0模型的小技巧。
文生图
EverydayWechat:让
微
信变得更强大,引领每日生活新体验
一、简介 EverydayWechat是一个强大的Python库,旨在为
微
信用户提供更多便利和功能扩展。
EverydayWechat
SQL
微
信为什么使用 SQLite 保存聊天记录?
真值true和false
分
别由数值1和0表示(这一点和C语言一样)。
SQLite
微信
数据库
数据库
向量数据库不是一个单独的数据库
分
类
目前被
分
类为“向量数据库”的产品,如Pinecone、Weaviate、Milvus等,不再有竞争优势,也不再有亮点。
大模型
向量数据库
ChatGPT
分
析了数百万ChatGPT用户会话后发现的秘密
首先,我将细
分
每个会话的提示数量: 我们可以从上面看到,ChatGPT 的用户几乎均匀地
分
布在单个提示、2-4 个提示和 5 个以上提示会话之间(各 1/3)。
大语言模型
Prompt
prompt中的
分
隔符号的正确使用方法
分
隔符号定义及其作用
分
隔符号是用于
分
隔文本中不同部
分
的标点符号和特殊字符。
prompt
分隔符
大语言模型应用中的文本
分
块策略
在构建与LLM相关的应用时,
分
块(chunking)是将大段文本
分
解为较小段的过程。
开源模型
Prompt
prompt提示工程最佳实践课程笔记
分
享
,此后添加了许多丰富的内容和示例,
分
享给大家,希望对大家有所帮助。
prompt
提示词
工具
3.5k star!一款万能的 SQL
分
析工具,厉害了!
一款万能的 SQL
分
析工具,厉害了!
dsq
开源项目
SQL
大模型
微
调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
Tuning整体介绍
微
调(Fine-tunning) 语言模型的参数需要一起参与梯度更新 轻量
微
调(lightweight fine-tunning) 冻结了大部
分
预训练参数,仅添加任务层,语言模型层参数不变
训练
微调
大模型
大模型高效
微
调:🤗 PEFT 使用案例
PEFT方法仅
微
调少量(额外的)模型参数,显著降低了计算和存储成本,因为对大规模PLM进行完整
微
调的代价过高。
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效
微
调实践
Vicuna:加州大学伯克利
分
校在ShareGPT收集的用户共享对话数据上,
微
调了13B规模的LLaMA。
大模型
微调
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100