首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· PPT又又有新突破了!智谱AI代码流造PPT
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 提示词框架:Markdown结构法
· Stable Diffusion 加速/优化/升级 优化出图速度
· 大模型量化:什么是模型量化,如何进行模型量化
· Stable Diffusion|背景替换只需要两分钟!
· 全量免费的EMO模型上架通义APP,外媒称之为Sora之后最受期待的大模型之一
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
一文讲明白什么是预训练、微调和上下文学习
上
图
给出了一个描述语言模型如何使用 ICL 进行决策的例子。
大模型
训练
Docker介绍及常用命令大全
当更改Dockerfile并重建
图
像时,只会重建那些已更改的层。
Docker
容器
如何使用 Megatron-LM 训练语言模型
下
图
说明了内核融合的思想。
开源模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
爬坑 代理环境 pending时间过长 在本地代理的加持下,存在eventstream在当前请求结束后一股脑发完的情况 后台限定1s一条,但到了客户端便成了上
图
这样(与云服务器流量大小也有一定关系
打字机
sse
大模型
请以“亮相”为题目写一篇记叙文,要求不少于700字。
例如,可以用手指指点,或是透过眼睛传递信息等方式来更好地传达自己的意
图
。
中文
大模型
训练
9个范例带你入门langchain
Agents可以查看数据、推断下一步应该采取什么行动,并通过工具为您执行该行动, 是一个具备
AI
智能的决策者。
大模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
o { "content": "类型#上衣*版型#宽松*版型#显瘦*
图
案#线条*衣样式#衬衫*衣袖型#泡泡袖*衣款式#抽绳",
ChatGLM2-6B
企业
为什么说数智化可以帮助中小企业降本增效 ?
此外,还有一些黑客,利用单位内通讯工具来进行恶意攻击的情况,例如我现在打开浙大邮箱,首页还是下面这幅
图
。
大模型
微调
Qwen7b微调保姆级教程
,'你能帮助我干什么'] i_can = ['我能够帮助你以最优雅的方式训练各种类型的pytorch模型,并且训练过程中会自动展示一个非常美丽的训练过程
图
表。']
Qwen7b
大模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践(附可运行案例)
爬坑 代理环境 pending时间过长 在本地代理的加持下,存在eventstream在当前请求结束后一股脑发完的情况 后台限定1s一条,但到了客户端便成了上
图
这样(与云服务器流量大小也有一定关系
GPT
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
ensp; = 20 ) docs = text_splitter.create_documents([text]) Content-Aware:基于内容意
图
分块
RAG
大模型
大模型
微调、训练大模型概念介绍及论文笔记:Tuning系列论文笔记
嵌入式表征进行拼接,能够让LLM在医学领域方面获得不错的应用效果 Large Language Models Encode Clinical Knowledge 指令提示微调 IPT的建模示意
图
训练
微调
Prompt
Prompt工程如此强大,我们还需要模型训练吗?
如下
图
: image-20230719152541138 同样以GSM8K数据集为例进行了说明,能够看出模型效果LaMDA(137B)< GPT-3(175B
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
· 产生有害说明或有偏见的内容:ChatGLM-6B 只是一个初步与人类意
图
对齐的语言模型,可能会生成有害
大模型
<
...
83
84
85
86
87
88
89
90
91
92
>
1
2
4
5
6
7
8
9
100