首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 大模型量化:什么是模型量化,如何进行模型量化
· AI开源 - LangChain UI 之 Flowise
· 检索增强生成(RAG)有什么好的优化方案?
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 使用python调用comfyui-api,实现出图自由
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
26个超级技巧,让你的ChatGPT直接起飞
23 - 当你有一个可能涉及不同文件的复杂编码提示时:“从现在开始,每当你
生
成
跨越多个文件的代码时,
生
成
一个可以运行的[编程语言]脚本,以自动创建指定文件或修改现有文件以插入
生
成
的代码。
ChatGPT
ComfyUI
使用python调用comfyui-api,实现出图自由
nbsp; print('执行完
成
'
comfyui
工作流
中本聪的Web3之路
为此,他设计了一种基于密码学和工作量证明的区块链技术,将交易打包
成
区块,并通过网络节点之间的共识机制来达
成
交易顺序和安全。
token
比特币
加密货币
开源
RAGFlow:开源的RAG引擎,专注于深入的文档理解,支持处理各种复杂格式的非结构化数据
此外,RAGFlow还具备自动化和易于配置的特点,能够与商业系统无缝集
成
,提高数据处理和分析的效率。
RAGFlow
RAG
开源
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
生
成
伪标签 接下来,SFT将模型应用于目标任务的未标记数据,以
生
成
所谓的伪标签。
大模型
浅浅介绍下中文分词,用这些库搞定
02 — 使用举例 下面是一个简单的示例: 假设你有一个名为`text.txt`的文本文件,其中包含需要
生
成
词云的文本内容。
Python
分词库
LLM
从零开始用LangChain、Pinecone和LLMs搭建你自己的文档问答系统
我们的用例重点是在特定的文档上回答问题,仅依赖于文档中的信息来
生
成
准确和符合上下文的答案。
知识库
langchain
大模型
垂直领域大模型的一些思考及开源模型汇总
而keyword LLM利用大模型
生
成
关键词,不仅可以找到文本中的重点内容,还可以总结并释义出一些词。
垂直领域
大模型
开源模型
汇总
大模型
大模型微调方法总结
PrefixTuning: Prefix-Tuning: Optimizing Continuous Prompts for Generation 简介 前缀微调(prefix-tunning),用于
生
成
任务的轻量微调
开源模型
如何改善你的回测方法,提高策略的未来收益
常见的陷阱包括
生
存偏差、前视偏差、数据挖掘偏差等。
回测方法
开源
爆火「视频版ControlNet」开源了!靠提示词精准换画风,全华人团队出品
霉霉变
成
魔法少女后,耳环被换
成
了发光宝石,手里的苹果也换
成
了魔法球。
ControlNet
AGI
通往AGI之路,提示词入门
设计提示基本上就是如何“编程” GPT 模型,通常是通过提供指令或一些如何
成
功完
成
任务的例子。
AGI
提示词
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
但仅仅是「
生
成
通顺句子」的能力现在已经很难满足现在人们的需求, 大部分 LLM 都具备
生
成
流畅和通顺语句能力,很难比较哪个好,哪个更好。
大模型
训练
RAG
如何提高RAG 的效果
同理,检索到的信息中如果存在冲突,或者冗余的内容时会极大的影响LM 的
生
成
效果。
RAG
大模型
微调
微调大型语言模型-核心思想和方法介绍
上下文学习和索引 自 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到在一般文本语料库上预训练的
生
成
式大型语言模型(LLM)能够进行上下文学习,而这并不能如果我们想要执行
大模型
训练
<
...
85
86
87
88
89
90
91
92
93
94
...
>
1
2
4
5
6
7
8
9
100