首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
复旦开源中文医疗大模型,基于百川
微
调
,模型和数据集都公开
为了满足患者的需求,我们采取了一项创新的举措,通过人工筛选,构建了符合人类偏好的高质量小规模行为
微
调
样本。
大模型
ChatGLM
从0到1基于ChatGLM-6B使用LoRA进行参数高效
微
调
之前尝试了基于LLaMA使用LoRA进行参数高效
微
调
,有被惊艳到。
大模型
视频
超越Animate Anyone! 南加大&字节提出MagicPose,不需任何
微
调
就可生成逼真的人类视频
南加州大学&字节提出MagicPose,一种新颖有效的方法,提供逼真的人类视频生成,实现生动的运动和面部表情传输,以及不需要任何
微
调
的一致的野外零镜头生成。
MagicPose
视频
大模型
大模型
微
调
应用实践,没那么简单,看看曾经踩过的坑
随着各大模型开源免费商用,应该会有更多的企业参与到大模型的
微
调
应用,也许会碰到各种问题。
大模型
LLM
AutoGPT与
LLM
Agent解析
更多内容也可以参考我之前对于 LangChain 的一些分享:
微
软 365 Copilot 是如何实现的?
大模型
LLM
【一步一步引导】从零详细地梳理一个完整的
LLM
训练流程
当前,不少工作选择在一个较强的基座模型上进行
微
调
,且通常效果不错(如:[alpaca]、[vicuna] 等)。
大模型
训练
大语言模型综述<演进,技术路线,区别,
微
调
,实践,潜在问题与讨论>
高效参数
微
调
方法 PEFT 随着大语言模型的参数量越来越大,进行大模型的全量
微
调
成本很高。
大模型
RAG
Prompt、RAG、
微
调
还是重新训练?如何选择正确的生成式AI的使用方法
微
调
也提供了相当精确的结果,输出的质量与RAG相当。
生成式AI
大模型
大模型
LLM
基础|分词
/dataset.txt --model_prefix=m --vocab_size=5000') 参考一下LLaMA和ChatGLM等大模型用的分词算法就知道目前
LLM
首选分词算法就是基于
开源模型
工具
RAG 与 Finetuning,谁是提升
LLM
的最佳工具?
微
调
的优势在于能够使
LLM
的行为适应特定的细
微
差别、语气或术语。
训练
工具
WeChatpy:Python中优秀的
微
信开发库,与
微
信官方接口交互的工具
如果你想在自己的应用中集成
微
信的功能或开发自己的
微
信机器人,那么WeChatpy是一个非常值得考虑的选择。
WeChatpy
开发库
大模型
七问大模型幻觉|
LLM
Hallucination
为什么需要解决
LLM
的幻觉问题?
大模型
RAG
LLM
应用架构之检索增强(RAG)的缘起与架构介绍
也正是如此,大量企业在模型争霸赛时,没有一直坚持下去,堆叠规模,而是采用了专才思路,具体看:一文探秘
LLM
应用开发(5)-
微
调
(背景与挑战),错过了人工智能的圣杯,而OPENAI坚持住了,发现了涌现,继而将我们是使用模型的方式从以
LLM
RAG
RAG超参数
调
优食用指南
目前构建
LLM
应用程序存在一个巨大的问题,那就是需要
调
整大量的参数,而且远远超出了提示范围,例如分块、检索策略、元数据等。
rag
大模型
LLM
个人从零预训练1B
LLM
心路历程
不过即使我在预训练里加了这部分数据,效果也是大概率比不过在qwen、llama这种大机构发布的模型基础上进行
微
调
的。
LLM
训练
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100