首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 免费的文本生成视频解决方案:AnimateDiff下载-可用于StableDiffusion的webui以及ComfyUI
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· ComfyUI-ControlNet不能漏啊!
· M3E 可能是最强大的开源中文嵌入模型
· ComfyUI 基础教程(一)环境部署和插件安装
· 【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
未来,机器人学和人工智能领域的研究者需要携
手
合作,进一步挖掘基础模型的潜力,并解决其落地部署所面临的挑战,推动服务机器人、工业机器人和特种机器人等领域的发展,造福人类社会。
论文
机器人
大模型
总结!大模型微调(Tuning)的常见方法
手
动尝试最优的提示无异于大海捞针,于是便有了自动离散提示搜索的方法,但提示是离散的,神经网络是连续的,所以寻找的最优提示可能是次优的。
微调
大模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践(附可运行案例)
相对复杂 内置断线重连和消息追踪的功能 不在协议范围内,需
手
动实现
GPT
深度解读|做出海必看的一份产品报告
时间
快
进到 2023 年:对产品作为增长驱动力的兴趣,远大于几年前。
工作
微调
大语言模型微调:定制自己的微调数据集
因此,如果这一类GUI工具能够更好地将数据处理与模型微调过程一同处理,那么将帮助我们更
快
地得到一个更好的大模型。
大模型
Agent
AI Agent / 智能体观察笔记(中)
人类生成的反应经过
手
工检查,以确保它们达到了基线质量。
大模型
大语言模型应用中的文本分块策略
虽然这可能既
快
速又简单,但这种方法不会考虑所有可能的边缘情况。
开源模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
相对复杂 内置断线重连和消息追踪的功能 不在协议范围内,需
手
动实现
打字机
sse
大模型
大模型
llm-action:让天下没有难学的大模型
FlashAttention 模型推理服务化 · 模型推理服务化框架Triton保姆式教程(一):
快
速入门
大模型
LLM
金融
金融领域Prompt工程方法浅析
尤其是对于特定的任务,不再需要使用该特定任务训练数据去微调模型,只需要调整提示即可
快
速使得大模型适配特定任务。
prompt
大模型
AIGC
AIGC系列之一-一文理解什么是Embedding嵌入技术
另外,FastText还能够处理各种语言的文本数据,并且具有
快
速训练和推断速度的优势。
AIGC
Embedding
嵌入技术
OpenAI
【语音识别】OpenAI语音力作Whisper
训练初始模型后,查看不同训练数据源的错误率,优先对高错误率和大数据尺寸的数据源进行
手
动检查,剔除低数据质量的数据源。
语音转文字
whisper
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
} 这里我使用自己的数据集,数据集来源是一份操作
手
操,使用Claude生成目标格式的train.json和dev.json,数据举例 { "content": "修改业务客户信息的步骤是什么
ChatGLM2-6B
Prompt
17岁高中生写了个神级Prompt,直接把Claude强化成了满血o1。
说试就试,涂津豪就直接按自己的理解,徒
手
写了一段拟人化的思维链Prompt。
prompt
大模型
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
虽然两者在理论复杂度上相似,但点积注意力在实践中更
快
且空间效率更高,因为它可以使用高度优化的矩阵乘法代码实现。
Transformer
大模型
<
...
69
70
71
72
73
74
75
76
77
78
>
1
2
4
5
6
7
8
9
100