首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· PPT又又有新突破了!智谱AI代码流造PPT
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· SD入门教程七:ControlNet篇-Canny边缘检测预处理器
· 国产视频制作之光-可灵:提示词大全整理
· WeChatpy:Python中优秀的微信开发库,与微信官方接口交互的工具
· 学会这招,一个头像变100种风格!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
没有思考过 Embedding,不足以谈 AI
,但对于仍然处于培育
智
能阶段的计算机,为它降低一些难度显然是必要的。
开源模型
大模型
快手大模型出炉!【快意】来袭!
nbsp;KwaiYii-13B-Chat对话模型具备出色的语言理解和生成能力,支持内容创作、信息咨询、数学逻辑、代码编写、多轮对话等广泛任务,人工评估结果表明KwaiYii-13B-Chat超过主流的开
源
模型
开源模型
大模型
大模型微调方法总结
LoRA,Adapter,Prefix-tuning,P-tuning,Prompt-tuning。
开源模型
微调
Baichuan-13B 保姆级微调范例
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的Baichuan-13B-Chat的finetune教程~ Baichuan-13B是百川
智
能于2023年7月11日发布的开
源
中英双语
开源模型
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
但是Deepmind也在试图定义一个统一
智
能体的概念,我相信AI-Agents这个概念也会随着不同的AI公司的理解,而形成不同类型的差异化。
开源模型
大模型
10个大模型私有化需要关注的问题
私有化部署大语言模型能够提高企业的对模型的控制力,定制化以及数据隐私和安全。但有一些关键因素需要考虑才能确保能够成功落地实施。
开源模型
视频
GPT-4o实时语音方案提供商Livekit开
源
voice agent:轻松处理音视频流
playground 托管游乐场 · Source code
源
代码
voice
agent
开源
音视频
ComfyUI
【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
使用ComfyUI玩SDXL的正确打开方式
开源模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
所以我去看了Megatron的
源
码,在此基础上配合图例写了这篇文章,其中的很多设计思想和细节就来自对
源
码的阅读。
开源模型
大规模训练系列之技术挑战
为了提升模型训练的速度,可以增加计算资
源
来缩短训练时间,于是出现了分布式训练。
开源模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开
源
LLM的finetune教程~ ChatGLM2-6b是清华开
源
的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调
开源模型
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
最近一直在忙着研究这些开
源
的大模型,写文的频率慢了点。
开源模型
大模型
开
源
大模型部署及推理所需显卡成本必读:也看大模型参数与显卡大小的大致映射策略
这些整数用于表示模型参数,从而减少模型在存储和计算时所需的内存和计算资
源
。
开源模型
LLM
基于LLM+向量库的文档对话痛点及解决方案
· 举例及标答如下 图片来
源
于网络 用户:根据文档内容,征信中心有几点声明?
开源模型
如何使用 Megatron-LM 训练语言模型
在 PyTorch 中训练大语言模型不仅仅是写一个训练循环这么简单。我们通常需要将模型分布在多个设备上,并使用许多优化技术以实现稳定高效的训练。Hugging Face :hugs: Accelerate 2 的创建是为了支持跨 GPU 和 TPU 的分布式训练,并使其能够非常容易的集成到训练代码中。:hugs: Transformers 3 还支持使用 Trainer API 来训练,其在 PyTorch 中提供功能完整的训练接口,甚至不需要自己编写训练的代码。
开源模型
<
...
14
15
16
17
18
19
20
21
22
23
...
>
1
2
4
5
6
7
8
9
100