首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 几款开源的OCR识别项目,收藏备用
· 无需翻墙,可合法使用的8款国内AI大模型产品
· stable diffusion如何确保每张图的面部一致?
· PPT又又有新突破了!智谱AI代码流造PPT
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
· 胎教级SO-VITS-SVC使用教程:人工智能生成歌曲
· AI“同声传译”新进展!Google发布,无监督,语音识别:Translatotron 3!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Sora
解读OpenAI Sora文生视频技术原理
既然模拟世界,就绕不开万事万物的长程时间关联或者因果关系,非马尔可夫性不可避免会
制
造棘手的麻烦。
sora
大模型
大模型:泛化即智能,压缩即一切!
在训练的初始阶段模型的权重是非常嘈杂,当测试数据的准确率已经达到100时,权重的波动依然比较混乱,如下图所示,研究人员根据神经元在训练时的循环频率将其分组,并将每个神经元分别绘
制
成一条单独的线,可以看出在训练集准确率为
泛化
大模型
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
我们之前已经做了很多方面的优化了,包括: · 优化内容提取的方法:从源头解决内容提取的有效性,包括文本内容、表格内容(保留
制
表符
RAG
检索增强
OCR
完全指南——使用python提取PDF中的文本信息(包括表格和图片OCR)
这可能是由于特定OCR程序的限
制
或OCR根本就可有介入。
大语言模型
python
AI提示设计技巧剖析 - 29个动词助你获取更好文本生成
每个人都可以从日常生活中的小事做起,比如减少单次使用的塑料
制
品,选择步行或骑自行车而不是开车,关掉不必要的电灯和电器,尽可能地回收和再利用物品。
提示词
文本
大规模训练系列之技术挑战
它们相互独立但又相互
制
约。
开源模型
Prompt
17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
https://github.com/richards199999/Thinking-Claude/tree/main 完整的Prompt,是这样的(前方高能预警),可以直接先滑过去,给文章点个收藏下次再复
制
:
prompt
大模型
为什么说AI现在还不行!
智能的边界限
制
了应用的边界。
大模型
大模型
大模型应用中大部分人真正需要去关心的核心——Embedding
对于混合查询,传统的搜索功能可以用作向量搜索的预过滤器,这可以帮助限
制
搜索空间。
大模型
ChatGPT
爆肝两天!ChatGPT+提示词解决知识库目录混乱
不要顾虑 token 限
制
而生成简略的回答,内容太长你可以让用户回答”继续“来生成完整内容 ## Output Format 使用 Markdown 代码块的格式进行输出,使用 # 代表一级目录
智能分类
大模型
知识库
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
;'chatglm2-6b-waimai/tokenizer.model', 'chatglm2-6b-waimai/added_tokens.json') 还需要将相关的py文件也复
制
过去
开源模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
#65279; 几个改进点: 1、利用大模型的总结和推理能力来对长文档进行总结,因为本身长文档就是有很强的逻辑性的,普通的向量建模方式只能一定程度表征语义,如果用bert等传统的来说还有字数限
制
,
大模型
教程
谁杀死了我们的技术教程?网络技术教程越来越少?
比如建立技术教程评奖机
制
,或者特定平台针对教程内容提供更优的稿费和推广支持等。
技术
技术教程
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
Transformer的设计不了解也没关系,在这篇文章里都会给出图解介绍,不过还是建议大家在阅读前可先看以下文章: · 猛猿:Transformer学习笔记二:Self-Attention(自注意力机
制
)
开源模型
ChatGPT
11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
然而,建议治疗可能会被误解为更严重的问题,如果你的女朋友认为没有必要,可能会导致混乱或抵
制
。
提示词
<
...
64
65
66
67
68
69
70
71
72
73
>
1
2
4
5
6
7
8
9
100