首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· AI异常值案例库第2期,5个灵感案例,新型流量获客法和产品形态
· Fooocus制作从小到老图
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· Stable Diffusion | 常见问题清点汇总
· ComfyUI 基础教程(一)环境部署和插件安装
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
赚钱
你还在为钱发愁?2023年十
大
赚钱GPT Prompts高级指南!(国际版)
2023年十
大
赚钱ChatGPT Prompts高级指南 1.
prompt
开源
重磅来袭!Llama中文社区开源预训练中文版Atom-7B
大
模型
Llama中文社区联合AtomEcho(原子回声)重磅发布基于Llama2的中文预训练
大
模型:原子
大
模型 Atom-7B | Atom-7B 介绍 目标泛智能体
大
模型 不同原子有不同的特性
大模型
人工智能
人工智能
大
语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
这些模型参
数
包含了源
数
据
集上学习到的知识,且这些知识同样适用于目标
数
据
集。
大模型
微调
下载
国内首个!最火的MoE
大
模型APP来了,免费下载,人人可玩
先来看看效果: 上传Excel,即可一键分析
数
据
,并制作图表。
MoE大模型
APPa
微软
微软、OpenAI
大
佬暗示LLM应用开发范式迁移:从Prompt Engineering到Flow Engineering
有一篇论文《Code Generation with AlphaCodium: From Prompt Engineering to Flow Engineering》受到了各方的关注,特别是OpenAI技术
大
佬
LLM
范式迁移
ChatGPT
为什么国产
大
模型都说超越ChatGPT而体验却很拉?警惕 Goodhart law 陷阱
除了跟 「GPT-4 相比毫不逊色」这个是空口白话之外,其他的国产
大
模型,都拿出了证
据
。
ChatGPT
国产大模型
WSL2安装(详细过程)
learn.microsoft.com/en-us/windows/wsl/about 适用于 Linux 的 windows 子系统允许开发人员直接在 Windows 上运行 GNU/Linux 环境 -- 包括
大
多
数
命令行工具
虚拟化
docker
人工智能
Gartner:2024年人工智能渗透的十
大
战略技术趋势
Gartner已经确定了2024年的十
大
战略技术趋势,生成式和其他类型的AI解决方案占
据
了中心舞台,广泛的采用和风险是主要关注领域。
Gartner
人工智能
AIGC
人话聊AI
大
模型:AIGC如何助力营销的秘密(下)
背景:今年AI
大
模型风靡一时,小编近期在更新
数
字化营销转型资料的同时,也整理了AIGC如何深入并赋能营销领域。
大模型
AIGC
人话聊AI
大
模型:AIGC如何助力营销的秘密(上)
背景:今年AI
大
模型风靡一时,小编近期在更新
数
字化营销转型资料的同时,也整理了AIGC如何深入并赋能营销领域。
大模型
提示词
十条最佳GPT提示词,让你成为任何领域
大
师
有了 ChatGPT,谁还需要学校?十条最佳GPT提示词。
ChatGPT
吴恩达老师建议
大
家关注 AI 智能体工作流
吴恩达老师建议
大
家关注 AI 智能体工作流,可以
大
幅提升 AI 应用的性能,并且他们总结了一套智能体设计模式: · • 反思:让
大
语言模型对自己的结果检查改进 ·
智能体
大语言模型
微调
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿
大
模型
我们也正在基于Baichun-13B-Base权重,使用Firefly项目代码训练firefly-baichuan-13b模型,目前训了18k步左右,
大
约消耗了86万条指令
数
据
。
大模型
微调
LLM
一文汇总
大
语言模型LLM所有prompt提示词框架的论文出处
能够让
大
模型推理结果变得更好的基础优化手段已经非常多了,这里梳理了常见的提示技术手段和对应的论文: - Zero-shot(零样本提示):https://arxiv.org/abs/2109.01652
prompt
提示词
微调
微调、训练
大
模型概念介绍及论文笔记:Tuning系列论文笔记
freeze住,因为
大
模型参
数
量
大
,精调起来效率低,毕竟prompt的出现就是要解决
大
模型少样本的适配 作者发现直接优化Prompt参
数
不太稳定,加了个更
大
的MLP,训练完只保存MLP变换后的参
数
就行了
训练
微调
<
...
29
30
31
32
33
34
35
36
37
38
...
>
1
2
4
5
6
7
8
9
100