首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· AI声音克隆 | 最全最简教程(权威版)
· stable diffusion 远端跑图—— Api基础知识掌握
· 国产“小钢炮”MiniCPM3-4B:小参数,大能量!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· AI绘画当前的应用场景有哪些?
· 大模型文本生成——解码策略(Top-k & Top-p & Temperature)
· ComfyUI 基础教程(一)环境部署和插件安装
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
把ChatGPT装进二次元手办,你来吗?AI桌面机器人众筹
按图索骥,在
网
上找到作者开源项目,学习研究硬件部分内容。
ai小车
esp32
开源
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
在
网
络正则化方面,Dropout将神经单元输出随机置0(乘0),Zoneout将RNN的单元随机跳过(乘1)。
大模型
大模型
详解大模型RLHF过程(配代码解读)
出自:https://zhuanlan.zhihu.com/p/624589622 一直都特别好奇大模型的强化学习微调是怎么做的,
网
上虽然相关文章不少,但找到的文章都是浅尝辄止说到用PPO训练,再细致深入的就没有讲了
训练
Python
Python状态机:优雅处理复杂业务逻辑的利器
易
于维护:状态转换逻辑集中管理 3.
Python状态机
设计模式
Logo
如何用AI做LOGO?
你不用担心使用这个模型画出容
易
尴尬的画面。
Stable
Diffusion
文生图
学会这招,一个头像变100种风格!
注意两种效果之间要尽可能比较接近,比如直接从照片风格 Remix 成可爱风就会很难,而从动漫风格过来就比较容
易
些。
Remix
文生图
大模型
预训练对话大模型深度解读
主要能力:开放域闲聊+多技能融合,包含人格化、知识性、共情性等 第二代2021年 模型结构和第一代相同,沿用2.7B参数量的版本 新增能力:联
网
搜索
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
然后创建一个新的神经
网
络模型,即目标模型。
大模型
微调
大模型
无一幸免!OpenAI最强竞对Anthropic:“长上下文”让大模型更不安全
在这种情况下,越狱尝试完全包含在单个提示中,这与多样本越狱攻击的相关性是显而
易
见的(事实上,多样本越狱攻击可被视为“上下文学习”的一个特例)。
Anthropic
大语言模型
阿里
体验完阿里的EMO模型,我emo了
目前在开源界,比较出名的口唇同步框架是 wav2lip[1],如果是自己部署的话,会比较麻烦,搭环境估计都得折腾个几个小时,很容
易
在 opencv 的版本上踩坑。
EMO
文生图
LangChain 完整指南:使用大语言模型构建强大的应用程序
这使得在您的应用程序中处理输出数据变得更加容
易
。
langchain
大模型
大模型
真格基金大模型能力测试问题集---垂直能力篇
OpenAI 已经在官
网
展示了 ChatGPT 的 48 个基本能力,在 NLP 领域,也已经有了 SuperGLUE、MMLU、Google BIG-bench 等被广泛使用的测试集
中文
训练
大模型
SDXL
造梦师手记:华夏之美,SDXL时代的第一个国风模型和汉服LoRA
尤其是XL对自然语言的理解更加容
易
,创作者能很容
易
的用比较口语化的表述来让AI实现自己的想法。
文生图
百度
百度智能云的Prompt模板
(2)避免歧义,简洁
易
懂 生成式大模型很多时候也和人类的理解能力相似,需要输入一些更明确的指示内容助于理解并执行内容生成,意图不明的模糊指令会让模型生成内容与预期有些偏离,甚至影响原本Prompt指令的生成内容
大模型
prompt
大模型
大模型微调方法总结
假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经
网
络中的一些密集层,同时保持预先训练的权重不变
开源模型
<
...
25
26
27
28
29
30
31
32
33
34
...
>
1
2
4
5
6
7
8
9
100