首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PhotoMaker:腾讯最新开源,根据照片生成该人物各种风格图片,项目可落地!
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI安装及生成第一张图
· ComfyUI官方使用手册【官网直译+关键补充】
· 爆火!腾讯开源PhotoMaker:高效地定制化生成任意风格的逼真人类照片!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· PPT又又有新突破了!智谱AI代码流造PPT
· 世界顶级七大管理工具:SWOT、PDCA、6W2H、SMART、WBS、时间管理、二八原则、波特五力分析
· 变天了,AI可以一键生成中文海报了......
· 通义千问
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型+人形机器人,是不是下一个风口?
如果以人
类
和机器人的比例为2:1推算,那么对人形机器人的需求可能会比电动汽车的还大不少。”
大模型
RAG
LLM之RAG实战(五)| 高级RAG 01:使用小块检索,小块所属的大块喂给LLM,可以提高RAG性能
for d in docs0])docs = [Document(text=doc_text)] 步骤2:将文档解析为文本块(节点) 然后,我们将文档拆
分
为文本块
RAG
检索
StableDiffusion
StableDiffusion常用基础参数说明
CFG Scale(无
分
类
指导规模):图像与你的提示的匹配程度。
文生图
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(上)
公司主要服务对象为企业营销团队以及部
分
自由职业者。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
其优势是不仅具有通用激活函数的非线性,而且反向传播梯度时具有线性通道,
类
似ResNet残差网络中的加和操作传递梯度,能够缓解梯度消失问题。
大模型
Prompt
一文汇总市面上所有prompts提示词框架
今天给大家
分
享12种常见的prompts框架,掌握了这些框架,就掌控未来AI应用的钥匙。
提示词框架
prompt
ChatGPT
超实用的通用ChatGPT指令!
我正在寻找一个视频创意,它将提供详细且易于理解的
分
步指南,指导客户如何使用我的[产品/服务]。
ChatGPT
提示词
微调
Baichuan-13B 保姆级微调范例
本范例微调的模型是Baichuan-13B-Chat,我们使用非常简单的,外卖评论数据集来实施微调,对一段外卖评论区
分
是好评还是差评。
开源模型
RAG
RAG从入门到精通-RAG简介
通常而言,RAG将知识问答
分
成三个阶段:索引、知识检索和基于内容的问答。
rag
大模型
大模型
大模型时代-行业落地的再思考
这
类
做法只是对大模型的生搬硬套,对解决领域问题和传统方法并没有很大的帮助。
大模型
金融
MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
2.2 图神经网络(GNN) 图神经网络(GNN)是一
类
能够处理图结构数据的神经网络模型,广泛应用于社交网络
分
析、生物信息学和金融市场预测等领域。
MCI-GRU
股票
大模型
大模型
EduChat:教育行业垂直领域大模型
现有语言模型评
分
粒度较粗,限制了学生写作技能的提升。
教育
大模型
垂直领域
ChatGPT
【ChatGPT有点热】浅聊Temperature参数对大语言模型的推理能力的影响
3 ►文末提供了不同场景的参考temperature,但具体值还是建议多测试实验,加入“let's think step by step”这
类
提示符,可以提高生成效果,特别是推理场景
大语言模型
chatGPT
Prompt
两个案例教你如何用BRTR原则优化Prompt
优化流程:从模糊到精准 BRTR 原则优化 Prompt 的过程可以
分
为四个步骤:添加背景(Background)、明确角色(Role)、具体任务(Task)和明确要求(Request)。
BRTR
Prompt
写作
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人
类
反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人
类
偏好的回答。
大模型
<
...
62
63
64
65
66
67
68
69
70
71
...
>
1
2
4
5
6
7
8
9
100