首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 入坑必看:comfyui界面与基础操作
· 我去,找到一个Github上非常优秀的AI项目,可控制鼠标、键盘,模拟人类操作,太丝滑,收藏~~~
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Suno音乐新手指南(手把手完整版教程)
· NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
· AI 产品榜 · 国内 100 强和出海 20 强
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
此外,将ChatGPT
视
为一个真正的助手,可以极大地扩展其使用范围。
Prompt
GPT
大模型
最透彻的大模型PPO原理和源码解读
这是因为,当我们在前文讨论总收益(即时 + 未来)时,我们是站在上帝
视
角的,也就是这个就是客观存在的、真正的总收益。
PPO
大模型
源码解读
Agent
2024年值得关注的Agent框架
它能够将用户请求转化为可执行代码,并将用户定义的插件
视
为可调用的函数。
Agent
框架
大模型
大模型时代,数据为王,在哪里寻找开源数据集?
www.kaggle.com/datasets 11、uci开源数据集 链接:https://archive.ics.uci.edu/datasets 12、计算机
视
觉开源数据集
开源数据
训练
大模型
总结!大模型微调(Tuning)的常见方法
v1到v2的可
视
化:蓝色部分为参数冻结,橙色部分为可训练部分,可以看到右侧的p-tuning v2中,将continuous prompt加在序列前端,并且每一层都加入可训练的prompts。
微调
大模型
大模型
性能超出预期!神秘的国产大模型 Kimi 开放 API
它的性能、兼容性、开放性都让人眼前一亮,足以成为 AI 生态圈不可忽
视
的新锐力量。
Kimi
Chat
大模型
API
开源
新测试基准发布,最强开源Llama 3尴尬了
从层次结构可
视
化的前64个聚类中也可以看出,大模型竞技场用户的提问质量和多样性确实是高。
Llama
3
大模型
开源
ChatGPT
用ChatGPT辅助学习,成为超级学霸
持续调整:根据自己的记忆情况,调整复习的
频
率。
教育
AI
学习
AI 产品榜 · 国内 100 强和出海 20 强
本榜单是一个跨界合作的成果,汇聚了业内外多方的专业
视
角和深刻分析。
大模型
大模型应用
行业分析
PDFTriage:面向长篇结构化文档的问答
将这样的结构化文档
视
为纯文本会丢弃回答这些问题所需的相关结构。
大语言模型
PDF
文档
腾讯
腾讯的 PhotoMaker - 更快 更像 更可控的 AI Avatar
这种嵌入可以被
视
为待生成身份标识的统一表示。
PhotoMaker
文生图
智谱AI官网再升级,GLM-4,智能体,AI作图长文档全部搞定!
最近国内有一部大热的电
视
剧《繁花》,请帮我深度分析剧情并搜索相关信息写出一篇影评,主题是:看了《繁花》的评论区,才明白什么叫“山猪吃不了细糠”,影评的文字风格要极力模仿张爱玲的作品。
GLM-4
智能体
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
切换到可
视
化web交互模式,建立统一的可
视
化pipeline配置训练任务。
大模型
大模型
推荐智能体:利用大模型进行交互式推荐
为了集成
视
觉功能,Visual ChatGPT (Wu et al. 2023)和HuggingGPT (Shen et al. 2023)结合了
视
觉模型作为工具,使LLM能够生成和处理图像。
大语言模型
推荐
混合专家模型 (MoE) 详解
之所以是 47B 而不是 8 x 7B = 56B,是因为在 MoE 模型中,只有 FFN 层被
视
为独立的专家,而模型的其他参数是共享的。
MoE大模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100