首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· 本地部署Manus+DeepSeek保姆级教程!
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Stable Diffusion 30种采样器全解
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
· Suno音乐新手指南(手把手完整版教程)
· PDFlux
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
Prompt及AI提问实践
比如某些模型对输入token处理时,会进行截取操作,导致多轮对话的部分信息失效,此时把Prompt放在不同的位置会产
生
差异较大的结果。
Prompt
大模型
提问
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
通过进一步分析发现,模型
生
成
GSM8k 样本的概率与其在 GSM8k 和 GSM1k 之间的表现差距之间存在正相关关系(相关系数 r^2 = 0.32)。
过拟合
小模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
(二、软件和部署) 本期开始,为大家讲下这些大模型是怎么训练
生
成
的 首先,为了确保本系列的讲解流畅,我将直接深入讲解大型语言模型的代码。
大模型
大模型
大模型微调数据选择和构造技巧
如果说我们直接采样一批线上的图文文本,直接送给标注的话,会存在一个严重的问题:他们标注的数据大部分都是攻略类,技术类比较少,标了3个月才攒了几千条大模型技术文本,但是攻略类已经
成
几万了。
大模型
微调
爬虫
强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
打开终端或命令提示符,并执行以下命令安装wechat_articles_spider: pip install wechatarticles 步骤 3: 安装完
成
后
微信爬虫
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
更完整的功能支持,原
生
支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
大模型
ChatGLM
大语言模型应用中的文本分块策略
当嵌入句子时,
生
成
的向量侧重于句子的特定含义。
开源模型
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
把Llama3和Phi-3组
成
MoE!
MoE
专家混合模型
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
免费,适用于小型 LLM; · 迅速,10-15 分钟; · 很大,无限大小的 prompt,比最大的 prompt 多 1000 倍以上的空间; · 学习,检索增强
生
成
大模型
教程
Markdown 介绍及使用教程
先把最常见的几个代码给你看看,so easy好吧 在文字前加个#号和一个空格就能设置
成
标题,一级标题就用一个#号,二级标题就用两个#号,以此类推; 在文字两边加**表示对包围的文字加粗
编程
提示词
提示词框架:BROKE
在通往终点的路上,有很多小任务和挑战需要你完
成
。
BROKE
提示词
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
数据分析:展示双环机制的有效性 我们将使用一个简单的数据集iris.zip上传到XAgent,然后让XAgent分析数据集并
生
成
一个报告。
ChatGPT
智能体
Agent
大模型
大模型时代-行业落地的再思考
这类做法只是对大模型的
生
搬硬套,对解决领域问题和传统方法并没有很大的帮助。
大模型
基于Ollama本地部署Llama3指南!
实际使用Llama3 llama3_8B的
生
成
速度非常快,这个版本用N卡8G的显存跑问题也不大。
LLama3
ollama
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
7B版本采用RoPE编码方式,而13B使用了ALiBi位置编码技术,后者能够处理长上下文窗口,甚至可以推断超出训练期间读取数据的上下文长度,从而更好地捕捉文本中上下文的相关性,让预测或
生
成
更准确。
大模型
中文
<
...
88
89
90
91
92
93
94
95
96
97
...
>
1
2
4
5
6
7
8
9
100