首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 全球六大主流自动PPT制作工具
· 华为盘古画画3.0发布 | PanGu-Draw:业界最大的中文文生图模型,效果YYDS!
· 还在用“You are expert”这种提示词?连ChatGPT都瞧不起你,试试这些Prompt吧
· OCR的终极解法——传统算法VS多模态大模型
· 从思维链(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!
· 如何下载及使用通义千问7B开源大模型
· 大模型训练为什么用A100不用4090
· 全球生成式 AI 应用全景图
· 【爆肝整理】500+ AI 最佳提示词
· 从第一性原理看大模型Agent技术
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Python
Python程序混淆和打包exe文件流程和方法
由于该程序没有
图
形
用户界面,因此如果读者试
图
通过双击来运行该程序,则只能看到程序窗口一闪就消失了,这样将无法看到该程序的输出结果。
Python
程序
通义千问
必看!阿里通义千问完整技术报告
无论是帮助我们解决复杂问题,创造新
形
式的娱乐,还是改变我们的
生
活和工作方式,LLMs都将在塑造AI未来方面发挥核心作用。
大型语言模型
报告
开源
国内外开源大语言模型一览表
我们
设
置了多种
形
式的指令来充分利用知识,构造了共
计
88000 条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。
大模型
Prompt
一文汇总市面上所有prompts提示词框架
在我们步入AI与各垂直行业深度融合的新时代,智能技术不仅为我们的
生
活带来前所未有的便利,更在各行各业拓宽了无限的可能。
提示词框架
prompt
ChatGPT
ChatGPT写论文指令全集
形
成
假
设
:如果适用,根据已有知识或理论,提出一个或多个研究假
设
。
ChatGPT
写作
开源
Chinese-LLM开源中文大语言模型合集
,替换了一批更高效的底层算子实现、重新
设
计
实现了中英双语的tokenizer,升级了BMTrain并行训练方法,是在中英文高质量语料基础上从0开始训练的,通过数据质量控制、多种训练的优化方法,实现在更小的数据集
大模型
中文
大模型
EduChat:教育行业垂直领域大模型
通过在教育语料库上进行预训练来学习领域特定的知识,并通过在
设
计
的系统提示和指令上进行微调来刺激各种技能的使用。
教育
大模型
垂直领域
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
1.预训练阶段(Pretraining Stage) 工欲善其事,必先利其
器
。
大模型
训练
提示词
你要牢记的四个常用AI提示词框架:ICIO、CRISPE、BROKE、RASCEF,有助于获取更加稳定和高质量的内容
内容创作:当用户希望 AI 为其创作特定风格或格式的内容,如撰写报告、创作诗歌或
设
计
图
像。
大模型
提示词
京东
多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
很简单,你
设
计
一个包含“工具选择Router”和“自循环”的
图
就行了。
JoyAgent
langchain
LangGraph
大模型
总结!大模型微调(Tuning)的常见方法
相反,它侧重于精心制作可以指导预训练模型
生
成
所需输出的输入提示或模板。
微调
大模型
AI的百亿套壳:做船不做柱子
四是各种Midjourney的变
形
体,都是基于 diffusion 做文
生
图
,面向专业用户的MJ,社区化的MJ,二次元的MJ,擦边的MJ,GPT4o原
生
图
片能力出来后,又把上限抬高了。
AI
创业
ChatGPT
11个非常简短却十分神奇的 ChatGPT 指令,刷新你的认知
人工智能日益
成
为我们工作和
生
活的一部分。
提示词
Meta
如何微调Meta Llama-3 8B
Meta 推出了 Meta Llama 3 系列 LLM,包括 8 和 70B 大小的预训练和指令调整的
生
成
文本模型。
Meta
Llama
3
大模型
大模型
Meta无限长文本大模型来了:参数仅7B,已开源
形
式如下: 为了降低全注意力机制中的二次复杂度,MEGA 简单地将 (14-16) 中的查询、键和值序列拆分为长度为 c 的块。
Meta
长文本
大模型
<
...
62
63
64
65
66
67
68
69
70
71
...
>
1
2
4
5
6
7
8
9
100