首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Suno音乐新手指南(手把手完整版教程)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· Stable Diffusion 30种采样器全解
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· 如何保证每次画出的都同一张人脸:Stable Diffusion的Reference only教程
· 现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
· Gpt写小说,常用的中文指令集「实操篇」
· 理解 o3 及其技术分析
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
面向知识图谱的大模型应用
【引子】春节期间,读了论
文
《An LLM Compiler for Parallel Function Calling》(https://arxiv.org/abs/2312.04511), 颇受启发,
知识图谱
大模型
大模型
大模型高效微调:🤗 PEFT 使用案例
代码:https://github.com/huggingface/peft
文
档
:https://huggingface.co/docs/peft/index PEFT 使用 接下来将展示🤗
大模型
大模型
大模型:泛化即智能,压缩即一切
最近看了Ilya关于泛化的演讲有所感悟,所以总结了这篇
文
章,作为入门者只是尽力去联系和理解所观察到的现象,不会探讨过于深入的东西,但希望能引起大家的兴趣。
大模型
泛化
Agent
用了一个月,终于找到点写 AI Agent 的思路
Ops 工具将运维操作划分为脚本执行、
文
件分发两类,而运维对象主机和 Kubernetes 集群分别都实现了这两种运维操作。
AI
Agent
Ops
运维工具
Prompt
角色,背景,任务,产出内容与形式:如何写出优雅的prompt? - 通用的万能框架
prompt翻译成中
文
,就是“提示”。
提示词
prompt
视频
AI创作 |如何通过GPT进行漫画视频的故事改写
视频爆款逻辑 在介绍如何使用ChatGPT进行故事改写前,我们先来聊聊“小说推
文
视频爆款”的
文
案这个部分。
生成式AI
开源
构建开源多模态RAG系统
Text2Image:在这里,想法是使用
文
本输入来生成视觉表示。
RAG
大模型
RAG
LangChain - RAG: 拿什么「降伏」PDF 中的 Table 类型数据
时间过得真快,写上一篇
文
到现在已经过去半个月之多!
大模型
LangChain
RAG
盘点来自工业界的GPU共享方案
本
文
将总结目前有公开PR的、来自工业界的部分GPU容器计算共享方案,看看工业界对GPU共享的定位和需求。
大模型
工具
使用这个工具后,我将 RAG 的准确性和召回率都提高了两倍!
将用户查询转换为嵌入向量直接检索会出现下面四类常见问题 👇: 查询结果不匹配 模型假设查询 embedding 和内容 embedding 在嵌入空间中是相似的,但基于要搜索的
文
本
RAG
大语言模型
最顶尖的大语言模型人才,只关心这10个挑战
优化上下
文
长度和上下
文
构建 3.
大语言模型
工具
掌握这10个AI 工具用1小时完成别人1周的工作
本
文
强烈推荐10个非常好用的AI工具。
AI
工具
大模型
全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
两个月前,阿里巴巴通义实验室公开了一篇能够让照片唱歌说话的生成式AI模型论
文
,EMO(Emote Portrait Alive),在海外媒体和社交平台引起热烈反响,被一批科技圈大V轮番转发。
EMO
阿里
全民演唱
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中
文
和英
文
benchmark 上均取得同尺寸最好的效果。
大模型
微调
微调
微调大型语言模型-核心思想和方法介绍
上下
文
学习和索引 自 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到在一般
文
本语料库上预训练的生成式大型语言模型(LLM)能够进行上下
文
学习,而这并不能如果我们想要执行
大模型
训练
<
...
50
51
52
53
54
55
56
57
58
59
...
>
1
2
4
5
6
7
8
9
100