首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI虚拟主播数字人技术实现Wav2Lip
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· Suno音乐新手指南(手把手完整版教程)
· SD3 正式开源 Sora同源架构
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 一位芯片投资人的十年复盘:谁是中国的英伟达|AI光年
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 我尝试了 100 个免费 AI 工具,这些是最好的
· 深入探讨:Agent全自动写作长篇小说技术原理解析
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
通义千问
必看!阿里通义千问完整技术报告
第3节涵盖了我们的对齐方法,并报告了自动
评
估
和人工
评
估
的结果。
大型语言模型
报告
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
在这里,我们分享一些结果以及培训和
评
估
脚本,希望对社区有用。
开源模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
实验发现,监督微调和 RLHF 这两个阶段对于提高下游自动
评
估
和模型输出的人类偏好
评
估
性能都非常重要。
开源模型
Gemma
万字长文-大语言模型指令调优综述
在Evol-Instruct测试集和 Vicuna测试集上进行
评
估
。
大语言模型
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
不使用任务metric,而是
评
估
生成desired answer的概率 实验表明,Execution accuracy的效果更好。
prompt
大模型
大模型
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
挑战 难以理解的数据集 对于 LLM 而言,其预训练数据集的规模非常大,任何个人都无法彻底阅读其中的文档或
评
估
这些文档的质量。
开源模型
大模型
推荐智能体:利用大模型进行交互式推荐
评
论家
评
估
演员的行为决策。
大语言模型
推荐
一个充满多智能体的数字社会正在浮现,商业的底层逻辑已进入重构倒计时
我们还提供了所提出方法的实际示例,其中我们实施和
评
估
了一个基于MAS的基本应用程序。
大模型
开源
国内外开源大语言模型一览表
现有的自然语言处理
评
估
基准多是通用领域的,没有公开可用的中文金融领域
评
测基准。
大模型
大模型
大模型训练工程那些事
因为训练超大规模语言模型的时间和金钱成本巨大,在给定计算资源预算的情况下,准确
评
估
和预测模型的最佳超参和能够收敛的位置至关重要。
训练工程
大模型
baichuan2 有什么好的 深挖论文中涉及的知识点
., 2021)
评
估
中,Baichuan 2 的性能几乎翻了一番。
大模型
Transformer
牛顿力学在AI中失效?Transformer模型能完美预测却不懂物理,哈佛团队揭示模型缺失物理常识
随后,研究团队在预留数据上针对模型预测结果进行
评
估
,并发现预测效果较为良好,其决定系数(R²)超过 0.9999,而且显著优于基准模型,即优于那些总是预测最近位置或轨道均值的模型。
Transformer
大模型
提示词
GPT提示词必杀技:思维树法
思维树的原理是: § 把一个问题分解成多个子问题 § 每个子问题的解决思路给出几种方案 § 模型自己
评
估
自己给出的子问题的解决思路(如果某个子问题的解决思路是错的,就会直接舍弃这个方案
GPT
提示词
Google
再超Transformer!Google| 提出两个新模型(Griffin、Hawk),强于Mamba,更省资源
当
评
估
的序列比训练中观察到的更长时,Griffin 的表现比 Transformers 更好,并且可以有效地从训练数据中学习复制和检索任务。
transformer
训练
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
在对长上下文建模的
评
估
上,包括高达 2M 的各种上下文长度中的困惑度以及 Scrolls 中的长上下文 QA 任务证明了 MEGALODON 对无限长度序列进行建模的能力。
Meta
长文本
大模型
<
...
3
4
5
6
7
8
9
10
11
12
...
>
1
2
4
5
6
7
8
9
100