首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 如何最简单、通俗地理解Transformer?
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· PPT又又有新突破了!智谱AI代码流造PPT
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· ComfyUI进阶前必备插件们续
· 收藏!万字长文聊聊LLM Agents的现状,问题与未来
· 为什么国产大模型都说超越ChatGPT而体验却很拉?警惕 Goodhart law 陷阱
· OCR的终极解法——传统算法VS多模态大模型
· Gpt写小说,常用的中文指令集「实操篇」
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG与Long-Context之争—没必要争
不用
微
调,直接给库。
RAG
Long-Context
大模型
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(上)
StableVicuna基于小羊驼Vicuna-13B模型实现,是Vicuna-13B经过进一步指令
微
调和RLHF训练的版本。
大模型
大模型
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
在单回复评论生成任务上,将 Auto-J 生成的评论与其他模型的评论进行了一对一比较,可以看到不管是基于 GPT-4 的自动比较还是人类给出的判决,Auto-J 所生成的评论都显著优于大部分基线,且略
微
优于
Auto-J
大模型
QWen1.5: 卓越模型之路
而最好的模型 Qwen1.5-72B-Chat,仅略
微
落后于 GPT4-32k。
Qwen1.5
开源模型
Sora
深度|万字访谈!Open AI Sora作者,亲自揭秘Sora原理,Sora能带我们通往AGI吗?
视频中的细
微
表现,比如中间的竞技场在过渡过程中逐渐衰败并沉入水中,效果非常壮观。
Sora
原理
ChatGPT
Prompt逆向工程:ChatGPT通过多角色对抗生成完美提示词
**改写检测**:查看`{文字2}`是否有对`{原文}`进行的
微
小改写,例如词汇替换或句子结构调整。
Prompt
ChatGPT
请以“亮相”为题目写一篇记叙文,要求不少于700字。
这包括挺直腰背,
微
笑着与人交流等等。
中文
大模型
训练
LLM
LLM Agent最常见的九种设计模式(图解+代码)
Finish,如果不是我们就可以利用大模型把 Action 后面的自然语言转换为外部工具能识别的 API 接口,这个转换过程就是大模型的 function calling 功能,本质上是对大模型进行
微
调
LLM
Agent
图解
大模型
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
在这种基线方法中,研究人员首先使用应用于表征的特定损失函数对与模型连接的低秩适配器进行
微
调。
大模型
RAG
RAG 领域的新宠:为什么 AI 圈都在谈论 Jina ColBERT?
同时,我们也将努力在更多数据集上进行
微
调,以进一步提升 Jina-ColBERT 的性能,并优化其存储性能。
rag
大模型
AIGC
AIGC的7个黑暗面
基本的大语言模型可以提供一个基础,但仍然需要大量的培训和
微
调。
大模型
大模型
面向知识图谱的大模型应用
在离散步骤中检索或者连接信息的简单方法往往不能完全捕捉知识图谱中的细
微
差别。
知识图谱
大模型
大模型
回望做大模型一年后的感悟
但当LLaMA出来之前大家开始做大模型的时候,但凡稍
微
有点大模型背景的研究人员早就已经把数据提高到了第一优先级。
大模型
感悟
ChatGPT
实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
例如,当你想让 ChatGPT 写一篇文章时,你需要给出详细的指令和提示词,甚至还需要人工干预进行
微
调。
Agent
写作
Transformer
ViTPose+:迈向通用身体姿态估计的视觉Transformer基础模型
为此,ViTPose也探索了能否在
微
调阶段使用不同的注意力方式进行计算。
ViTPose+
Transformer
身体姿态
<
...
51
52
53
54
55
56
57
58
59
60
>
1
2
4
5
6
7
8
9
100