首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· PPT又又有新突破了!智谱AI代码流造PPT
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· SD入门教程七:ControlNet篇-Canny边缘检测预处理器
· 国产视频制作之光-可灵:提示词大全整理
· WeChatpy:Python中优秀的微信开发库,与微信官方接口交互的工具
· 学会这招,一个头像变100种风格!
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
一个充满多智能体的数字社会正在浮现,商业的底层逻辑已进入重构倒计时
通过扩展一个系统以支持监
控
和自适应自身以实现特定的关注点,这一目标得以实现。
大模型
OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
智能安防监
控
在安防领域,OmniVision - 968M可应用于监
控
摄像头系统。
OmniVision
-
968M
多模态模型
大模型
企业如何更好的使用大模型?都有哪些框架和方案
大模型有Token的限
制
,记忆能力有限。
人工智能
大模型
大模型
大模型时代 AI 技术在金融行业的创新应用
例如,在营销领域,AI 技术通过大数据及机器学习方法分析营销客户的消费行为和购买历史,更好地了解客户需求,
制
定更准确的营销策略,并向客户提供更有针对性的产品和服务,从而提高了客户满意度和营销效果。
大模型
金融
大模型
国内首个!最火的MoE大模型APP来了,免费下载,人人可玩
先来看看效果: 上传Excel,即可一键分析数据,并
制
作图表。
MoE大模型
APPa
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操
控
等真实应用场景的落地至关重要。
大模型
阿里
体验完阿里的EMO模型,我emo了
这种技术能够自动学习3D模型的形状和动作,并根据学习到的模型参数实现动画骨骼
控
制
。
EMO
文生图
大模型
MindChat心理大模型
数据词云 目前MindChat的开源模型采用了经过人工清洗的约20万条的高质量多轮心理对话数据进行训练, 涵盖工作、家庭、学习、生活、社交、安全等多个方面 因数据权限限
制
, 我们目前仅开源了极少量的数据案例
心理大模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
不同的尺寸满足不同的计算限
制
、应用程序和开发人员要求。
开源模型
Gemma
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
FlashAttention-2是一种高效注意力机
制
的实现方式之一,相较于传统的注意力技术(Attention),它拥有更快的速度以及更加优化的内存占用率。
大模型
强!推荐一款自动化神器Autolt:不再重复工作!
它利用模拟键盘按键,鼠标移动和窗口/
控
件的组合来实现各类自动化任务,包括自动化软件安装、登录、数据自动录入、界面自动化测试、数据抓取等,以及可以和其他自动化工具结合起来使用,比如,我们在使用Selenium
Autolt
自动化
提示词
分享一个结构化AI提示词模版
写作模板 情境(S): 需要创作[文章类型] 目的(P): [写作目标] 受众(A): [目标读者群体] 要求(R): - 字数限
制
: [具体字数
提示词
模板
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
在谷歌 DeepMind 近日的一篇论文中,研究者提出了 RG-LRU 层,它是一种新颖的门
控
线性循环层,并围绕它设计了一个新的循环块来取代多查询注意力(MQA)。
transformer
训练
RAG
无限长的上下文,也干不掉的RAG
主要发现 多文档问答任务 研究者们通过
控
制
输入上下文的长度和相关信息在上下文中的位置,发现模型在多文档问答任务中的表现会随着相关信息位置的变化而显著变化。
RAG
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
模型结构上,ChatGLM-6B采用了prefix decoder-only的transformer模型框架,在输入上采用双向的注意力机
制
,在输出上采用单向注意力机
制
。
大模型
微调
训练
<
...
18
19
20
21
22
23
24
25
26
27
...
>
1
2
4
5
6
7
8
9
100