首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· BypassGPT-AI文本人性化
· 爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
· Sora懂不懂物理世界?
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· 为你推荐开源项目:Meridian——专属个人情报站!
· ComfyUI 基础教程(二):文生图基础流程
· AI换脸:FaceFusion和Roop在线版修复,支持手机,平板,低配电脑!
· 详解Stable Diffusion提示词prompt语法
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
一键部署本地“妙鸭”,证件照,写真照,模特换装全部搞定!
#02
训
练
我们先来看它的第一个功能——
训
练
。
妙鸭
文生图
ChatGPT
迄今为止,最强ChatGPT写论文技巧,总共6步,手把手告诉你!
这就是业内人常说的,
训
练
ChatGPT。
chatgpt
提示词
零一万物
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
去年11月,零一万物就正式开源发布了首款预
训
练
大模型Yi-34B,当时的模型已经能处理200K上下文窗口,约等同于20万字文本。
零一万物
YI
李开复
Prompt
结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
在这些天的项目进
程
中,我们已初步尝到了团队协作创建结构化Prompt的甜头。
Prompt
提示词
Markdown
Stable Diffusion
Stable Diffusion高精度换脸
一、简介 最近Roop换脸插件横空出世,大家再也不用看千篇一律的AI脸了,使用这个插件的过
程
中很多人发现换好的脸部存在精度不够问题,今天给大家分享使用Stable Diffusion高精度换脸的操作流
程
Stable
Diffusion
文生图
RAG
LLM应用架构之检索增强(RAG)的缘起与架构介绍
它能处理它在
训
练
样本中未见过的情况。
LLM
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
必须得让大模型学会这些企业代码资产,通过进行有效个性化
训
练
,才能真正为企业所用。
aiXcoder-7B
大模型
企业
【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
而从集成角度,在LLM出现之前,我们构建一个基于自然语言交互的AI应用,可能面临繁琐的配置与
训
练
过
程
,而最后的效果却不如人意,以
训
练
一个简单的天气查询机器人来说,其流
程
可能是这样的: 而现在,我们可以利用大模型轻松构建自然语言的交互界面
大语言模型
RAG
必读!RAG好用的3种Router
它重复此过
程
多次,并根据各种指标评估性能。
RAG
Router
大模型
中文通用大模型最全汇总
模型的主要特性有:较大提升LLaMA的中文理解能力,并尽可能减少对原始LLaMA英文能力的损伤;
训
练
过
程
增加较多的任务型数据,利用ChatGPT生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果
大模型
开源模型
大模型
大模型:泛化即智能,压缩即一切
在人
工
智能领域,通俗地说,泛化是指模型在
训
练
数据中学习到的共性,这样在面对从未见过的数据时就能够具备很好的预测能力。
大模型
泛化
数字人
如何免费打造自己的数字人主播:StableDiffusion插件SadTalker打造本地数字人主播
本教
程
将介绍如何使用Stable Diffusion和Sadtalker结合起来,实现从文本到视频的生成。
数字人
开源
清华&面壁开源新一代主动Agent交互范式!让AI从被命令到主动帮助
该研究除了提出以上开创性的主动 Agent 之外,还通过采集不同场景下的人类活动数据构建了一个环境模拟器,进而构建了数据集 ProactiveBench,通过
训
练
模型获得了与人类高度一致的奖励模型,并比对了不同模型在数据集下的性能
Agent
大模型
大模型
大模型微调方法总结
假设模型在任务适配过
程
中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过
程
中密集层变化的秩分解矩阵来间接
训
练
神经网络中的一些密集层,同时保持预先
训
练
的权重不变
开源模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
BLOOM是一个仅解码器的Transformer语言模型,它是在ROOTS语料库上进行
训
练
的,该语料库包含46种自然语言和13种编
程
语言。
大模型
<
...
34
35
36
37
38
39
40
41
42
43
...
>
1
2
4
5
6
7
8
9
100