首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· 一种通用的 Prompt 框架 - CRISPE
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
· Stable Diffusion|提示词高阶用法(三)角色指定
· 通义千问
· AI创作 |如何通过GPT进行漫画视频的故事改写
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
AGI
和王小川聊再创业这一年:回应朱啸虎、谈中国AGI第三种可能
他试图阐释在技术和市场、
理
想和现实之外,中国AGI还有第三种可能性。
王小川
中国大模型
Prompt
请收好这12种Prompt编写模式,让不可靠的模型生成可交付的可靠结果
机器通过与人类相似的思维模型也可
处
理
复杂问题,例如ChatGPT借助设计的插件和模型可证明定
理
,但仍难以达到顶尖
数
学家的水平,因为顶尖
数
学家可以利用
数
学直觉发现和证明定
理
,拥有与生俱来的一致。
prompt
开源
构建开源多模态RAG系统
虽然像GPT-3、BERT和RoBERTa这样的大型语言模型在基于文本的任务上表现出色,但在
理
解和
处
理
其他
数
据
类型时面临挑战。
RAG
大模型
Agent
AI Agent / 智能体观察笔记(上)
数
据
存储:智能体执行任务过程中产生的
数
据
都会被存储起来,这些
数
据
会用于调整优化策略。
大模型
RAG
简单提升RAG的10种方法
数
据
清
理
RAG 将LLM的能力与特定
数
据
联系起来。
RAG
大模型
RAG
图解检索增强式生成(RAG)技术 | 万字长文
它取决于你使用的嵌入模型及其在 Token 上的
处
理
能力。
检索增强式生成
RAG
Prompt
Prompt及AI提问实践
比如某些模型对输入token
处
理
时,会进行截取操作,导致多轮对话的部分信息失效,此时把Prompt放在不同的位置会产生差异较大的结果。
Prompt
大模型
提问
ComfyUI
解放AI生产力——为什么要使用ComfyUI
通过上面两个例子的对比各位可以发现,controlnet展现了惊人的图片控制能力,而不需要人为的控制AI,限制AI发挥的强度,更厉害的是controlnet不止有canny预
处
理
这样将图像退化为线稿再
处
理
的预
处
理
方式
文生图
一网打尽 | 掌握64个策划思维模型,逆转职业寒冬!(高清图+模型详解)
A (Act)
处
理
,对总结检查的结果进行
处
理
,对成功的经验加以肯定,并予以标准化;对于失败的教训也要总结,引起重视。
策划思维模型
方法论
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
为了提高性能,他们实施了几项改进措施,包括增强
数
据
清洗、更新
数
据
混合方式、训练更多记号
数
量,并且扩大上下文长度。
大模型
语音
实时语音克隆
建议使用 GPU 来进行训练和推
理
速度,但这不是强制性的。
语音
克隆
爬虫
强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
它可以帮助用户快速、高效地获取微信公众号中的文章
数
据
,并进行进一步的分析和
处
理
。
微信爬虫
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
这可能差别会很大,是
处
理
较长的文档(如文章或书籍),还是
处
理
较短的内容(如微博或即时消息)?
RAG
大模型
RAG
LangChain - RAG:线上系统多文档要频繁更新,每次都要重新花钱做一次 embedding,老板不批预算,批我...
LangChain 提出的方案如下图所示,暂且称它为「增量更新」模式,在 data-transform 这一步、embedding 之前针对没个 chunk 做一次 hash,记录下来 hash 值,每次源
数
据
更新了只需要在这一步里面比对一下
大模型
大模型
七问大模型幻觉|LLM Hallucination
模型的参
数
知识偏向:有研究表明,模型在
处
理
信息时,可能更依赖其在预训练阶段所积累的知识,而忽略了实时提供的上下文信息
大模型
<
...
40
41
42
43
44
45
46
47
48
49
...
>
1
2
4
5
6
7
8
9
100