首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 造梦师手记:足控专属AI大模型,完美的少女
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 全球六大主流自动PPT制作工具
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Python程序混淆和打包exe文件流程和方法
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· 最佳开源文生图大模型可图:安装与批量出图的完整教程
· 又快又好,秒级出图的AI大模型
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
DeepSeek V3刷屏,550万元2000张卡做出的开源模型,和OpenAI几亿烧出来的一样好
通过算法和
工
程上的创新,DeepSeek-V3 的生成吐字速度从 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型实现了 3 倍的提升,为用户带来更加迅速
流
畅的使用体验。
DeepSeek
V3
开源模型
大模型
通俗解读大模型微调(Fine Tuning)
作
为像水、电一样的基础设施,预训练大模型这样的艰巨任务,只会有少数技术实力强、财力雄厚的公司去做。
大模型
微调
AGI
Yann LeCun杨立昆最新观点:AGI不存在
此外,开源人
工
智能将允许更多的协
作
和有益的人
工
智能系统的开发。
AGI
大语言模型
观点
Prompt
请收好这12种Prompt编写模式,让不可靠的模型生成可交付的可靠结果
现在,我们开始关注这个问题的核心部分:在Prompt Engineering的框架下,Prompt可以看
作
是人与AI交互中的一个可
工
程化的组成部分。
prompt
阿里
阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
整个文生视频做的
工
作
是什么?
通义
文生视频
Agent
AI Agent的数字化革命:超越文本,走向自主决策与交互
作
者将AI Agent定义为LLM、任务规划、记忆和
工
具使用四个部分的组合。
生成式AI
社区供稿|GPT-4 与国产模型,大!横!评!
这个需求来自一位法师朋友,她的原始数据非常杂乱,想要提取信息需要费点劲看到两家的输出
流
下了感激的泪水 GLM4: GPT4:文心4.0:文心无法上传csv数据,不具备分析能力,本轮不能完成任务。
GPT-4
大模型
大模型
大模型训练为什么用A100不用4090
台湾同胞辛辛苦苦攒钱建厂,一张 4nm 那么先进的
工
艺哦,才能卖到 $15000,但是那某个客户拿去噢,能卖出 $1500000($30000*50)的货啦,机车,那样很讨厌耶。
大模型
一旦参透「第一性原理」,便洞悉所有事的本质
这一部分是操
作
指南,内容较为实用但可能略显枯燥。
第一性原理
大模型
SDXL
造梦师手记:SDXL迎来了AI插画师
在C站,一个面向插画领域的SDXL大模型受到了热捧,它的名字叫:Anime Illust Diffusion XL 创
作
者在主页成: 模型介绍: 动漫插画设计XL,或称 AIDXL 是一款专用于生成二次元插图的模型
文生图
漫画
基于 Kimi Chat 的 AI 渐进式阅读法
我的文章阅读步骤 在没有 AI 之前,我的文章处理步骤是这样的: 粗略阅读,筛选信息 经过筛选的信息,阅读其中一部分/全文阅读 阅读过后记录「文献笔记」 具体的步骤可以参考我在 2021 年写的《我的阅读
工
作
流
Kimi
Chat
阅读
RAG
如何提高RAG 的效果
这个问题在使用外部搜索引擎(bing, google)获取结果时比较明显,一种可能的解决办法是对候选文档生成主题描述(类似论文的摘要),先进行支持性判断,后续可选择性的深入文档细节进行部分内容提取或其他操
作
。
RAG
大模型
大模型
大模型实践总结
比如:OPT-66B一共有64层Transformer,当使用Alpa进行
流
水线并行时,通过
流
水线并行对模型进行切分,要么使用16卡,要么使用8卡,没法直接使用24卡,因此,GPU服务器最好是购买偶数台
大模型
训练
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
尤其是
作
为聊天应用来说,在用户输入之后,大模型可以在多短的时间内给出回应对于用户体验来说影响巨大。
大模型
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
这导致 Llama 2 很难完成
流
畅、有深度的中文对话。
开源模型
<
...
54
55
56
57
58
59
60
61
62
63
...
>
1
2
4
5
6
7
8
9
100