首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Pynsist:一键打包 Python 应用代码成 Windows 安装程序
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 不出所料,字节个把月就整出了自己的manus,不用积分,无需会员,快来体验coze空间吧
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 耗时7天,终于把15种ControlNet模型搞明白了
· 这个方法可以让AI写出的文章完全去掉GPT味儿!
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· [开源]面向中小团队的轻量化知识管理应用,构建知识库和知识社区
· Stable Diffusion 和 Midjourney的优劣势比较,如何选择?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
Qwen7b微调保姆级教程
,] i_am = ['我叫梦中
情
炉,是一个三好炼丹炉:好看,好用,好改。
Qwen7b
大模型
Transformer
牛顿力学在AI中失效?Transformer模型能完美预测却不懂物理,哈佛团队揭示模型缺失物理常识
为此,研究团队模拟了一个序列数据集,其中每个序列都描述了行星绕太阳运行的
情
况。
Transformer
大模型
金融
金融行业中 Fintech 的应用场景
在 Fintech 这个领域里面是有两个结合,一个就是机器学习,这是科技,通过算法和模型完成一些预测的事
情
。
Fintech
金融
产品经理必会的3大流程:业务流程、功能流程、页面流程(附案例)
流程的方法论包括:梳理业务逻辑、明确角色与任务、分析异常
情
况、流程优化与调整等。
产品经理
流程
小度为何押注AI眼镜?
这当中涉及为大模型定制整体的技术架构,哪些模型放在端上、哪些放在云上,以及如何让硬件的传
感
器、芯片、存储的组合更适配需求,如何在成本与性能之间做平衡…… 这种AI硬件之路,不是设备上搭载大模型,也不是设备上跑
AI眼镜
小度
ComfyUI
【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
虽然现在已经有很多大佬分享了自己的工作流,但我还是建议大家能自己先手搓一下,一是为了搞懂SD的工作原理;二是因为自己连的工作流出图的那一刻,这个成就
感
是无与伦比的。
开源模型
RAG
RAG超参数调优食用指南
因此,该方法比较适用于当我们拥有大量数据、学习速度很慢并且希望最大限度地减少调整时间的
情
况。
rag
大模型
「长文」可能是目前最全的LangChain AI资源库之一
]•Local GPT[65]: 基于私人GPT,使用Vicuna-7B模型替换GPT4ALL模型,并使用InstructorEmbeddings而不是LlamaEmbeddings的灵
感
&
工作
大模型
LLM每周速递!大模型最前沿:多模态RAG、RAG加速、大模型Agent、模型微调/对齐
斯坦福 | 上下文Scaling Laws 论文:https://arxiv.org/pdf/2410.16531 本文研究了上下文学习(ICL)在不对模型进行微调训练的
情
况下提高语言模型执行复杂任务的能力
大模型
研究
Stable Diffusion
全面理解Stable Diffusion采样器
灵
感
来自于 ODE 求解器中的 predictor-corrector 方法,可以在 5-10 步采样出高质量的图片。
绘画
采样器
SD
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践(附可运行案例)
当浏览器接收到该事件ID后,下次与服务端建立连接后再请求的 Header 中将同时提交该事件ID,服务端检查该事件ID是否为上次发送的事件ID,如果与上次发送的事件ID不一致则说明浏览器存在与服务器连接失败的
情
况
GPT
Prompt
自从prompt用了示例演示,GPT的输出稳定性达90%
示例的类型与特点 · 示例可以是具体的
情
景描述、历史事件或虚构案例。
prompt
提示词
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
在128个并发的
情
况下,基于vLLM-total方式可以达到1700个tokens每秒,而int8量化等优化之后甚至达到了2500个tokens每秒!
大模型
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
更高效的推理:为了支持更广大用户的使用,我们本次同时开源了 int8和 int4的量化版本,相对非量化版本在几乎没有效果损失的
情
况下大大降低了部署的机器资源门槛,可以部署在如 Nvidia3090这样的消费级显卡上
大模型
中文
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
可以看到,在没有给任何提示的
情
况下,Qwen2.5-Turbo能准确掌握不同论文的细节信息,并完成对比分析。
Qwen2.5
开源模型
<
...
65
66
67
68
69
70
71
72
73
74
...
>
1
2
4
5
6
7
8
9
100