首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 万字长文,AI大模型的应用实践总结
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· ComfyUI 基础教程(一)环境部署和插件安装
· 备案通过且面向公众开放的国产精品大模型汇总,附访问链接
· 保姆级教程:Coze 打工你躺平
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI安装及生成第一张图
· Stable Diffusion 喂饭教程来啦!价值上万的模特AI换装方法
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微
软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
提高大型语言模型的推理能力是当前研究的最重要方向之一,而在这类任务中,近期发布的很多小模型看起来表现不错,比如
微
软 Phi-3、Mistral 8x22B 等等。
过拟合
小模型
大模型
大模型
微
调数据选择和构造技巧
大模型场景
微
调里面,最关键地的一个是问题是: 选择什么样的数据
微
调?
大模型
微调
OpenAI
微
软、OpenAI大佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
而当下层出不穷的agent,特别是MultiAgent框架或平台以及创业项目就能反映问题,比如langchain新推出了Agent开发框架langgraph,
微
软出了Task weaver,Autogen
LLM
范式迁移
Stable Diffusion
Stable Diffusion LightFlow 作弊插件!一键复用工作流
冒出的第一个想法肯定是用图片
信
息解析功能。
流程
SD
大模型
【全文翻译】
微
软166页论文解读 GPT-4V:多模态大模型的黎明
我们观察到 GPT-4V 能够理解文化细
微
差别,并为给定的婚礼图像生成合理的多语言描述。
多模态大模型
GPT-4V
文生图
Sora
微
软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
论文由
微
软研究团队撰写,这篇论文深入探讨了Sora的发展背景、核心技术、新兴应用场景、现有的局限性以及未来的发展机会,基于公开资料和团队自行进行的逆向工程分析。
Sora
微软
开源
30 多年前被 Windows、Linux “灭掉”的操作系统 MS-DOS 4.0,
微
软在 GitHub 上开源了!
36 年后,
微
软将 MS-DOS 4.0 开源 距离 1988 年首次发布,MS-DOS 4.0 至今已有近 36 年的历史,此次
微
软开源的 MS-DOS 4.0 项目是在 MIT 许可下发布
MS-DOS
4.0
开源模型
微软
NEFTune:在Embedding中加入噪⾳提⾼指令
微
调效果!
通常情况下,我们使⽤更好的基础模型、更⼤的数据集⼤⼩以及更⾼质量的数据来提升⼤型语⾔模型(LLM)
微
调性能
NEFTune
大语言模型
什么是极限、导数、
微
分与积分(通俗易懂)!
比如,当我们看一个多项式方程,它的最高次幂告诉了我们许多关于其行为的
信
息。
极限
导数
微分
积分
人工智能
国内人工智能对北京高考
微
作文题目的回答
(1) 近年来,
微
信
公众号成为
信
息传播的一种重要媒介。
中文
大模型
一文讲明白什么是预训练、
微
调和上下文学习
这些模型通过预训练、
微
调和上下文学习的组合来学习。
大模型
训练
开源
微
软最新模型Phi-3 Mini开源登场!小模型,大未来!
微
软最近推出了一款新的小型人工智能模型,名为 Phi-3 Mini。
Phi-3
Mini
开源模型
微软
ChatGPT
这个能写出10W+爆款文章的ChatGPT提示词,你敢用吗?
之前,我创建了一套mimeng风格的写作提示词,素材是几十篇10W+
微
信
公众号文章,提炼出4条通用规律。
写文章
LLM
实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
我每天有大量的
信
息要处理,我收藏的
信
息也越来越多。
Ollama
AnythingLLM
阅读
微
调大型语言模型-核心思想和方法介绍
但是,它的性能通常达不到
微
调的要求,因为它不会针对特定任务更新模型的参数,这可能会限制其对特定任务细
微
差别的适应性。
大模型
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100