首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· PPT又又有新突破了!智谱AI代码流造PPT
· 图解大模型训练之:张量模型并行(TP),Megatron-LM
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
· 15个中文AI写作提示词帮你覆盖所有主流写作场景!!!
· DeepMusic发布“和弦派”2.0:重塑AI音乐创作范式,赋予创作者全方位掌控
· AIGC工具提示词技巧
· 一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
· 用AI为古诗词生成插画
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Agent
谈Agent构建平台的设计
但与各种low-code平台、Agent平台、
GPT
平台不同,市场对学习Excel的需求很大,教Excel的书很多。
Agent
构建
Sora
微软对 Sora 进行了逆向工程分析,揭秘 Sora 的秘密
与
GPT
-4 等大型语言模型相似,Sora 能够解析文本并理解复杂的用户指令。
Sora
微软
开源
开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!
然后,我们利用
GPT
-3.5 根据提供的原始文本标签生成更多的问题和答案。
大模型
语音
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
虽然在大家不懈努力下开源模型在效果方面已经取得了长足进步,甚至一些模型在个别方面已经与 ChatGPT 甚至
GPT
-4 效果比肩,我们仍然需要直面与 OpenAI 的差距。
训练
大模型
belle
Agent
AI Agent的千亿美金问题:如何重构10亿知识工作职业,掀起软件生产革命?
这一点在很多行业专家对 LLM 的使用中能够初见端倪,例如陶哲轩把
GPT
-4 当作了自己科研中的 thinking partner,未来好的 agent framework 将让大家更好地设计和打造自己的合作伙伴
大模型
AI编程
大模型
大模型评测新思路:弱智吧精华问题大全
., 2023)模型进行了微调,以分析数据源对模型跨领域知识能力的影响,并使用 Belle-Eval 上基于模型(即
GPT
-4)的自动评估来评估每个模型在各种任务上的性能。
弱智吧
训练数据集
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
目前开源的LLM的Context window确实还不够大,但
GPT
-3.5-turbo-16k的context window其实已经不小了。
大模型
大模型
中文通用大模型最全汇总
://github.com/FlagAI-Open/FlagAI/tree/master/examples/Aquila 简介:由智源研究院发布,Aquila语言大模型在技术上继承了
GPT
大模型
开源模型
大模型
大模型:泛化即智能,压缩即一切!
如果将下一个token预测当作压缩模式,那么
GPT
的升级可能并不需要基于原始数据进行训练,而是基于大模型这个压缩器在分布之间泛化。
泛化
大模型
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(下)
它不仅具备
GPT
-4等大型语言模型的基本功能,还包括各种实用的外部工具和长/短期记忆管理。
大模型
提示词
【爆肝整理】500+ AI 最佳提示词
一些最佳的通用
GPT
提示: 像 XX 专家一样行事 在表格中显示信息 不要写XX 只解释 XX 你将扮演XX。
提示词
AIGC
《构建个人知识图谱》:让 AIGC 帮你自动构建知识图谱
url).meta_description completion = openai.Completion.create(model="
gpt
提示词
文生图
AIGC
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们在一些客户的实践过程中,还是发现相关性效果不佳,甚至造成了其中一个客户选择了其他方案(使用RAG+
GPT
-4的方案)。
RAG
检索增强
大模型
大模型:泛化即智能,压缩即一切
如果将下一个token预测当作压缩模式,那么
GPT
的升级可能并不需要基于原始数据进行训练,而是基于大模型这个压缩器在分布之间泛化。
大模型
泛化
RAG
RAG模型的主要痛点和解决方案
- 使用像OPT或
GPT
-3的分类器框架开发运行时过滤器来捕获不安全的输出。
rag
大模型
<
...
23
24
25
26
27
28
29
30
31
32
>
1
2
4
5
6
7
8
9
100