首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Stable Diffusion 加速/优化/升级 优化出图速度
· ComfyUI-基础图生图&基础图片缩放
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Stable Diffusion | 常见问题清点汇总
· SD入门教程四:图生图基础用法
· Coze多智能体(Multi-Agents)模式体验!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
然⽽,这在
GPT
-4的评估中并没有反映出来。
NEFTune
大语言模型
SDXL
说真的,SDXL究竟藏着多少秘密,也许没人知道
为什么SDXL存在着隐藏属性 在解释这个问题之前,我们先拿
GPT
举例子。
文生图
【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
Motivation 在NLP中,预训练的方法目前其实已经被验证很成功了,像BERT和
GPT
系列之类的。
OpenAI
自然语言监督
LLM
如何成为LLM提示词大师!「大语言模型的底层心法」
这个训练过程以及使用的大规模数据集使LLM像Claude和
GPT
-4这样的模型嵌入了相当多的世界知识。
大模型
提示词
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
nbsp; 长序列测评(南玻王) 工具使用能力测评 全方位碾压同类70亿参数模型,在即将开源的、用于评估工具使用能力的自建评测基准上,居然K·O了
GPT
通义千问
工具
20款AI工具助力在家副业
Audio 以你自己的声音将视频本地化到不同的语言 9 Courseau 将你的2小时指客转化为有趣的迷你课程 10Albus Beta 探索任何主题的全新方式 11 LocalGPT 便用
GPT
工作
大模型
投资人逃离大模型
旗下产品包括
GPT
-3.5、
GPT
-4、
GPT
-4o等。
大模型
ChatGPT
你是否发现ChatGPT甚至不能按字数要求回复问题?有人做了评测并讨论了可能的原因
有分词确实让这些任务更具挑战性(比如子词级别的生成),但作者假定分词不一定影响到了词规划能力,因为分词都会用特殊符号指明词的开始,她们也没发现证据能表明子词对应于音节单位,有研究发现在音节相关数据上进行微调的较小模型如
GPT
大模型
控制
写作
AI写作:一步到位,如何用 AI 生成整篇文章?做自媒体必看!
GPT
测试如下: 二、长文 在撰写长文的时候,一次性出文就没那么好用了。
结构化提示词
写作
微调
大语言模型微调:定制自己的微调数据集
典型的如训练Vicuna模型 [6] 所使用的ShareGPT数据集,ShareGPT本身是一个与ChatGPT(
GPT
-4)模型的聊天记录分享平台,它托管了大量由用户挑选的对话数据集,这些聊天记录通常展示的是聊天机器人自然流畅
大模型
LLM
一文探秘LLM应用开发-Prompt(相关概念)
https://arxiv.org/pdf/1506.07285.pdf 但是,虽然想法很好,实现上却很困难,当下用历史后视镜来看,想要实现统一,一是要选对模型结构(
GPT
),二是要有足够的参数规模,
prompt
大模型
Prompt
Prompt屠龙术-少样本示例
o • 修订现有示例: 对示例进行微调以改善效果 o • 获取LLM的帮助: 让LLM (比如
gpt
Prompt
少样本示例
开源
DeepSeek V3刷屏,550万元2000张卡做出的开源模型,和OpenAI几亿烧出来的一样好
它的聊天版本在其他开源模型上的表现也优于其他开源模型,并在一系列标准和开放式基准测试中实现了与
GPT
-4o 和 Claude-3.5-Sonnet 等领先闭源模型的性能相当。”
DeepSeek
V3
开源模型
将任意文本转换为知识图谱
我在这里采用了无
GPT
方法来保持经济性。
知识图谱
转换
文本
知乎
弱智吧竟成最佳中文AI训练数据?!中科院等:8项测试第一,远超知乎豆瓣小红书
由500个点赞最高的帖子标题+人工或
GPT
-4的回复组成指令微调数据集, 经过人工审核后,最终留下了240组指令-回复数据对。
弱智吧
训练数据集
<
...
21
22
23
24
25
26
27
28
29
30
...
>
1
2
4
5
6
7
8
9
100