首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 为你推荐开源项目:Meridian——专属个人情报站!
· 阿里Qwen3系列模型惊艳亮相
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· SD入门教程五:后期处理图片高清放大
· SD入门教程二:文生图基础用法(提示词)
· 剪映克隆声音功能详解:剪映上线5秒“AI克隆音色”,一堆AI公司又要进入慢性死亡了...
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· AI高手都在用的10个提示词prompt网站,建议收藏!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
LangChain - RAG: 拿什么「降伏」PDF 中的 Table 类型数据
framework for your Retrieval Augmented Generation (RAG) pipelines) 库,我们看到 LangSmith 也针对 Ragas 做了一些集
成
方面的优化
大模型
LangChain
RAG
LLM
Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
这个模块提出了三种Agent角色
生
成
方式,包括LLM
生
成
方法、数据集对齐方法和组合方法。
大模型
LLM
Agent
ChatGPT
20个ChatGPT超实用的提示词(Prompt)
让 ChatGPT 帮你
生
成
提示 Prompt:“你是一个旨在帮助 [插入专业] 的 AI,
生
成
10 个最佳提示列表。
prompt
提示词
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
在众多开发者心中,MiniCPM 渐渐
成
了一把衡量端侧模型能力极限的标尺,最新的 MiniCPM-V 2.6 再次抬高了端侧多模态的性能天花板: 仅 8B 参数
MiniCPM-V
2.6
大模型
大模型
中文通用大模型最全汇总
,对比原版 LLaMA,该模型在中文理解能力和
生
成
能力方面均获得较大提升,在众多下游任务中均取得了突出的
成
绩。
大模型
开源模型
TypeChat 入门指南
传统模式下,创建自然语言模型界面是一项复杂的任务,通常依赖复杂的决策树来确定意
图
并收集行动所需的输入。
TypeChat
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
由于 GPT 使用的 Transformer 模型的自身特性,导致模型只能从固定长度的上下文中
生
成
文本。
GPT
ChatGPT
ChatGPT写论文最强指令
如果可行,请包含最新研究
成
果或专家意见的引用,以加强文章的论点。
ChatGPT
指令
Prompt
Prompt屠龙术-大厂prompt工程指南解析提炼
让您的指令易于理解,以便人工智能能够快速掌握您的意
图
。
prompt
大模型
解析
微软
微软Phi-3、Mixtral 8x22B等小模型过拟合,三分之二存在数据污染
通过进一步分析发现,模型
生
成
GSM8k 样本的概率与其在 GSM8k 和 GSM1k 之间的表现差距之间存在正相关关系(相关系数 r^2 = 0.32)。
过拟合
小模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
使用Model Memory Calculator估算大模型显存的实测 这个工具的使用非常简单,如下
图
所示,你只需要找到对应的模型所在的HuggingFace地址,直接输入到下面就可以计算了。
大模型
OpenAI
《OpenAI官方:GPT 最佳实践》大白话编译解读版本
明确完
成
任务所需的步骤 5.
提示词
官方
翻译
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本
生
成
任务,包括问答、总结和推理
ollama
gemma
qwen
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
图
1:LLaMA2-7B模型在数据集微调时,使⽤和不使⽤NEFTune的AlpacaEval胜率百分比。
NEFTune
大语言模型
清华
清华、面壁智能发布:主动式Agent 2.0
ProactiveAgent流程
图
数据收集与处理 1.
Agent
2.0
大模型
<
...
79
80
81
82
83
84
85
86
87
88
...
>
1
2
4
5
6
7
8
9
100