首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
· stable diffusion API 调用,超级详细代码示例和说明
· 使用ComfyUI玩SDXL的正确打开方式
· ComfyUI的特性以及安装流程
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显
示
,相比于初代模型,ChatGLM2-6B 在 MMLU(
知识库
大模型
垂直领域大模型的思考
例
如我们需要一个能帮助写SQL的大模型,这个模型能跟专业的数据工程师一
样
,准确地给出可信赖的SQL语句,让人们放心的在生产环境执行。
垂直领域
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
具体来说,我们不对输入文
本
进行任何归一化处理,并且我们不再像 Baichuan 1 那
样
添加一个虚拟前缀。
大模型
写作
提高写作能力的90个prompt大全
解决问题:“提出创新解决方案,减
少
城市地区的塑料垃圾。”
prompt
写作
ChatGPT
万字长文|40万人学习过|28个ChatGPT使用技巧,带你从入门到精通
问甲图书室原有图书多
少
本
?
ChatGPT
使用技巧
教程
大模型
大模型狂飙两年后,“六小龙”开始做减法
“至
少
可以说,现在是创办科技公司的最理想时机,我们已经很久没有遇到这
样
颠覆性的变革了。”
AI
大模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
概述 我们进行了各种各
样
的实验,试图延长模型的上下文长度。
开源模型
开源
字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
样
本
效率:MimicTalk的设计注重
样
本
效率,能够在「极短的时间」内用
少
量数据完成新身份的适应,减
少
了对大量标注数据的依赖。
MimicTalk
开源模型
ChatGPT
如何使用ChatGPT进行写作
· · 提供一个最佳
示
例
:通过
示
例
ChatGPT 能更好地理解你所期望的语气,然后你就可以让 ChatGPT 来解释这种语气。
ChatGPT
写作
MCP服务介绍及应用场景报告-来自Manus
MCP服务的应用场景与案
例
:探讨MCP在各个领域的应用可能性,并通过具体案
例
展
示
其实际效果。
MCP
大模型
Agent
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
RPA的基
本
情况很明确,这些机器人解放了员工,让他们专注于更多增值任务,并降低企业的总体成
本
。
RPA
自动化
OpenAI
AI Agents大爆发:软件2.0雏形初现,OpenAI的下一步
通过 LLM 模型进行简单的提
示
,
例
如“Steps for XYZ.
agent
如何使用 Megatron-LM 训练语言模型
因此可以将多个离散计算合并为一个,从而减
少
在多个离散计算中的内存移动次数。
开源模型
揭秘DeepSeek:一个更极致的中国技术理想主义故事
起因是他们发布的一款名为DeepSeek V2的开源模型,提供了一种史无前
例
的性价比:推理成
本
被降到每百万token仅 1块钱,约等于Llama3 70B的七分之一,GPT-4 Turbo的七十分之一。
DeepSeek
大模型
大模型
达摩院SPACE对话大模型:知识注入与知识利用
如上图左侧表
示
的预训练语言模型,其优化的目标是回答什么
样
的句子更像自然语言;而上图右侧表
示
的是预训练对话模型,从端到端的角度看,其优化的目标是需要回答给定对话历史,什么
样
的回复更合理。
大模型
<
...
44
45
46
47
48
49
50
51
52
53
...
>
1
2
4
5
6
7
8
9
100