首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· Cursor设计主管分享AI写出高质量代码的12个超绝妙招
· 为你推荐开源项目:Meridian——专属个人情报站!
· 阿里Qwen3系列模型惊艳亮相
· 测评了8个国产AI大模型,差点崩溃……
· 绝对是你的下载神器!AixDownloader可让你从任何网页下载你想要的内容,音乐、视频、图像、文件等!
· 清华&面壁开源新一代主动Agent交互范式!让AI从被命令到主动帮助
· 保姆级教程:Coze 打工你躺平
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
提示词
22个用于创业者思维的提示词
翻译提示:"为[插入业务]
设
计
一个推荐
计
划,激励客户分享和推荐我们的产品或服务。"
提示词
大模型
大模型
备案通过且面向公众开放的国产精品大模型汇总,附访问链接
No.4 ChatGLM2 大模型 ● 产品名:智谱清言 ● 出品方:智谱AI ● 简介:智谱清言基于智谱AI自主研发的中英双语对话模型ChatGLM2,经过万亿字符的文本与
代
码
预训练
大模型
国产
大模型
开源的大模型数据集
大模型训练数据集的质量是提升大模型效果最有效的途径,也是最苦最累的脏活,积累前人已经整理开源的数据集,站在数据集巨人的肩膀上,持续迭
代
大模型。
开源模型
数据集
教程
Markdown 介绍及使用教程
先把最常见的几个
代
码
给你看看,so easy好吧 在文字前加个#号和一个空格就能
设
置成标题,一级标题就用一个#号,二级标题就用两个#号,以此类推; 在文字两边加**表示对包围的文字加粗
编程
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
编写Python
代
码
不需要自己编写啊,直接抄官方
代
码
。
通义千问
阿里
阿里的AI一键换衣(AnyDoor)工具来了
不过,这个功能实际操作起来还是比较麻烦的,近日阿里和港大推出了一个工具,可以轻松实现一键换衣,当然,这个工具不仅仅换衣那么简单,还可以把任意一张图片里的元素,毫无违和感的
转
移到另外一张图片,很像哆啦A梦里的任意门
AnyDoor
换装
文生图
大模型
Openai 异步客户端接入国产大模型 Kimi
Moonshot AI 是一家专注于通用人工智能领域的公司,其愿景是寻求将能源
转
化为智能的最优解,通过产品与用户共创智能,实现普惠AI。
Kimi
Chat
大模型
Agent
AI领域的agent是什么意思?
具体
代
码
可以参考以下(https://github.com/ysymyth/ReAct/blob/master/hotpotqa.ipynb): def webthink(idx=None, prompt
大模型
换脸
全新换脸工具ReActor,比roop更强!
可以在 ReActor 界面的
设
置中查看模型是否下载成功。
ReActor
SD
文生图
微调
大语言模型微调:定制自己的微调数据集
这意味着它们应该在特定的微调任务上具有
代
表性,但又不是简单的重复。
大模型
停用词(Stop Words)的价值、收集与使用
停用词表的价值和应用 在
计
算机科学发展的初期,祖师爷们的一个重要任务,是
设
计
足够优秀的信息检索系统,以支持大家从上千篇文档中找到自己需要的那一篇。
停用词
大模型
金融行业的开源AI大模型
然而,模型的数据收集和训练协议的可访问性和透明度受到限制,也有着密集的
计
算需求并产生高昂的适应成本,这加剧了对更开放和包容的替
代
方案的需求。
开源
大模型
高效选择:Ollama与LM Studio深度对比
Ollama:为初学者和非技术人员
设
计
o • 用户体验:Ollama以其简单性和易用性著称,特别适合那些对技术不太熟悉的用户。
Ollama
LM
Studio
对比
大模型
大模型微调方法总结
假
设
模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA 允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型由多层双向的Transformer编
码
器组成,由12层组成,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。
大模型
<
...
51
52
53
54
55
56
57
58
59
60
...
>
1
2
4
5
6
7
8
9
100