首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 剪映专业版智能补帧
· 阿里Outfit Anyone实现真人百变换装
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
· Stable Diffusion生成美女正向词和反向词示例
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
· AIGC工具提示词技巧
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
同时
开
源预训练和对齐模型:预训练模型是适用
开
发者的『 基座 』,而广大普通用户对有对话功能的对齐模型具有更强的需求。
大模型
微调
LangChain 完整指南:使用大语言模型构建强大的应用程序
LangChain是一个强大的框架,旨在帮助
开
发人员使用语言模型构建端到端的应用程序。
langchain
大模型
大模型
大模型能力快速测评极简题目
把加特林
从
冰箱拿出来算冷兵器吗?
大模型
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
行业内的大厂们坐不住了,阿里巴巴的通义千问项目
开
放了 1000 万字的长文本处理能力;360 公司的智脑
开
始
内测 500 万字的长文本处理功能,并计划将其整合至 360AI 浏览器中。
大模型
上下文
大模型
MindChat心理大模型
模型介绍 心理大模型——漫谈(MindChat)期望
从
心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平.
心理大模型
阿里
企业数字化转型的“阿里阿德涅之线”在哪?
谈及企业的数字化转型,总是避不
开
一个词——降本增效。
大模型
用户
GPTs
智能时代的变革者:定制化GPTs重塑未来的五大预言
发现GPT技术如何带您
从
平凡走向卓越,打
开
通往未来的大门。
GPTs
智能
盘点字节跳动最新的AI应用
到了2023年5月初,《中国企业家》杂志揭示,字节跳动的创
始
人张一鸣正在积极研究OpenAI的一系列论文。
字节
AI工具
人工智能
人工智能的应用范式呼之欲出
2308.13534.pdf 来自爱尔兰都柏林大学爱尔兰AI应用研究中心的团队首先构建了一个大语言模型的数据库(数据表)LLMXplorer,数据覆盖了150多种大语言模型,
从
17
大模型
一网打尽 | 掌握64个策划思维模型,逆转职业寒冬!(高清图+模型详解)
Start(需要
开
始
的):哪些环节在本次活动中没有实施,后续
开
始
做。
策划思维模型
方法论
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
向量数据库也存在召回率偏低、
开
发门槛高等缺点。
RAG
大模型
论文润色 | GPT4.0论文润色指令总结(含GPT3.5和4.0润色效果对比)
3.你现在是XXX领域的专家(领域名称).
从
专业的角度来看,你认为有必要修改以上内容吗?
论文
提示词
写作
请以“亮相”为题目写一篇记叙文,要求不少于700字。
但是,当我
开
始
演讲时,我意识到自己已经准备充分了。
中文
大模型
训练
阿里
[论文] 阿里提出AgentScope:灵活强大的智能体框架
特别是,多智能体应用中的智能体可以通过不同的初
始
配置专门执行不同的功能;多智能体应用可能要求智能体按照标准化操作程序(SOP)或更动态的工作流程执行;智能体之间的通信模式可能
从
一对一到广播(例如,智能体的讨论组
AgentScope
语言大模型
智能体
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破纪录,自研LPU是英伟达GPU 10倍
这种设计使得每个时钟周期(every clock cycle)都能被有效利用,
从
而保证了稳定的延迟和吞吐量。
Groq
大模型
<
...
52
53
54
55
56
57
58
59
60
61
...
>
1
2
4
5
6
7
8
9
100