首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· MCP服务介绍及应用场景报告-来自Manus
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 掌握Prompt的6心法
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· videomaker.me
· 火山写作:一款助力写作能力提升的AI助手
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 5 种策略控制 ChatGPT 的输出长度
· 中文通用大模型最全汇总
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
很多企业都有自己的软件开发框架和API的库,与其关联的业务逻辑、代码架构规范都因地制宜,十
分
个性化。
aiXcoder-7B
大模型
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
通过简单地将输入序列
分
块为固定块,如 MEGA-chunk 中所做的那样,MEGALODON 在模型训练和推理中实现了线性计算和内存复杂性。
Meta
长文本
大模型
工具
我尝试了 100 个免费 AI 工具,这些是最好的
一两
分
钟后,您的 YouTube 视频就准备好了。
AI
工具
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人
类
反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人
类
偏好的回答。
大模型
大模型
智源:70万预算,从头开发千亿参数大模型,挑战成功!
看到这里也许有的读者会有疑问,其他模型不是也有
分
成多个参数量的版本吗?
大模型
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
在研究“文源”时,面壁团队就是在资源受限的条件下展开一系列从 0 到 1 的探索,因此很早使用了
分
布式加速、参数微调等方法来降低模型训练的成本。
Grok-1
开源模型
Elasticsearch 中的向量搜索:设计背后的基本原理
段内的每个文档都由文档 ID 标识,文档 ID 是该文档在段内的索引,
类
似于数组的索引。
向量数据库
AI文档智能助理都是如何处理pdf的?
它包括文本提取器、图片转换器、HTML转换器等工具,大部
分
工具都是开源的。
大模型
你的下一个浏览器,可以是豆包电脑版!
不仅按照训练过程的阶段划
分
了四大部
分
,每个部
分
更是精细到了秒级的程度。
豆包
浏览器
换脸
10秒换脸,一张图片够了!SD Roop插件教程
脸的序号从0至N,0代表第一张脸,1代表第二张脸,以此
类
推。
AI换脸
大模型
腾讯开源混元AI绘画大模型
考虑到这是一款开源产品,发布以后可以被其他创作者们魔改,尤其是在大模型的基础上进行深度训练,必然会远超其他AI绘画大模型(如果这个打
分
属实的话)。
腾讯
混元
文生图
阿里
淘宝模特全体注意!阿里AnyDoor AI换装神器出来了,年度最强AIGC重制绘图工具,重塑电商模特产业
步骤2: 到MJ上画一个全身的模特,要注意不能有身体的部
分
如脚在画面外,这样换装的效果就不完美了。
AnyDoor
换装
文生图
阿里
阿里最近推出AI项目的动作太过频繁,脑子跟不上了,事出反常必有妖,盘点一下
FaceChain 是阿里达摩院推出的一个开源的人物写真和个人数字形象的 AI 生成框架(
类
似于免费开源版的妙鸭相机
阿里
大模型
数字人
这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
项目的主要组成部
分
是Fay控制器和数字人模型,这些可以结合起来创造多种应用场景。
Fay
开源项目
数字人
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
与编码器
类
似,我们在每个子层周围使用残差连接,之后是层归一化。
Transformer
大模型
<
...
63
64
65
66
67
68
69
70
71
72
...
>
1
2
4
5
6
7
8
9
100