首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
如何使用 Megatron-LM 训练语言模型
我们需要对
预
训练数据进行
预
处理。
开源模型
Prompt
8个超级GPTs Agent,每个浏览量超20w+(实用建议+攻防Prompt)
注重功能,进行彻底的
测
试和验证,并严格细化,坚实的基础可确保其所在领域提供稳健性能 4)版本控制 在你创建应用时一定要把你的应用版本标记好,在更新版本前要保留你之前的版本信息,不然你可能一不小心的操作
GPTs
Agent
RAG
2023检索增强生成技术(RAG)研究进展
起初,研究旨在通过在
预
训练阶段注入额外知识,来强化语言模型。
RAG
检索增强
开源
字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
NeRF的核心思想是「将场景建模为一个连续的3D辐射场,并通过神经网络
预
测
给定位置和方向的辐射强度」。
MimicTalk
开源模型
Stable Diffusion
如何保证每次画出的都同一张人脸:Stable Diffusion的Reference only教程
需要指出的是,在
测
试过程中发现: 1.并不是所有底模,都可以跟Reference only契合得很好,个别模型在成像过程中,有时候会出现色彩走样。
文生图
大模型
大模型的研究新方向:混合专家模型(MoE)
混合专家模型的前世今生:老树新芽 混合专家模型(MixtureofExperts:MoE)的思想可以追溯到集成学习,集成学习是通过训练多个模型(基学习器)来解决同一问题,并且将它们的
预
测
结果简单组合
MoE
大模型
AI国力战争:GPU是明线,HBM是暗线
在AI没有爆发之前,市场
预
测
全球HBM将平稳增长至一个100亿美元的市场。
GPU
HBM
大模型
Stable Diffusion
Stable Diffusion WebUI v1.8.0重大更新!
支持FP8精度 显存方面: 在旧版本中最低支持FP16精度,这次的新版本支持最低FP8精度了,什么意思呢,看上图,这是官方用RTX4090做的
测
试,
测
试图显示在推理峰值的情况下用SDXL模型运算可以节省
SD
画图
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
BERT等
预
训练语言模型提供了语义匹配的能力。
大语言模型
RAG检索增强
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
除了最基础的星辰语义大模型,还包括: § 星辰语音大模型 ,它具备关键词检
测
、超自然语音合成、语音识别、语音翻译、声音匿名、AI 作曲和语音生成七大类算法能力,可用于音频会议纪要整理
开源大模型
电信
不出所料,字节个把月就整出了自己的manus,不用积分,无需会员,快来体验coze空间吧
flowith 雷神,公众号:PeopleSoft探究Manus 一码难求,拿不到邀请码怎么办,雷神手把手带你体验另外一款可以媲美Manus的应用 貌似只能跑报告和简单的报告网页 我昨天
测
试部署网站也是一致失败
manus
阿里
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
扩散模型通过一个数学上的可靠框架,利用 U-Net 技术将噪声转化为图像,这一过程中,U-Net 通过
预
测
和减少每步的噪声来帮助这一转换。
Sora
微软
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
[3]证明了在给定训练
预
算的情况下,即使减少模型参数量,只要增加
预
训练的数据大小和训练时长(更多的训练tokens数),可以达到甚至超过原始大小模型的效果。
大模型
微调
训练
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
目前训练loss下降比较平滑,待训练完毕后,我们也将
测
试并开源该模型权重。
大模型
微调
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过
预
训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括问答、总结和推理
ollama
gemma
qwen
<
...
23
24
25
26
27
28
29
30
31
32
...
>
1
2
4
5
6
7
8
9
100