首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 制作可爱的表情包
· 微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
· BaiChuan百川
· 【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
· BypassGPT-AI文本人性化
· 第3期 SDXL和SD的10大区别!你知道几个?
· Suno音乐新手指南(手把手完整版教程)
· humanize.im
· 大模型高效微调:🤗 PEFT 使用案例
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
基于其领先的视觉 token 密度,MiniCPM-V 2.6 成为了首个支持在 iPad 等端侧
设
备上进行实时视频理解的多模态大模型。
minicpm
面壁
大模型
中文通用大模型最全汇总
Chinese: 地址:https://github.com/FlagAlpha/Llama2-Chinese 简介:该项目专注于Llama2模型在中文方面的优化和上层建
设
,
大模型
开源模型
零一万物
零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
为了实现模型能力的提升,研究团队从保证训练数据质量、在tokenization中运用独特
设
计
、微调阶段积累经验等多个角度进行了攻关,增强了模型的优势并在API段充分发挥。
零一万物
YI
李开复
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
一味的靠抄Prompt模板,其实不是长久之
计
。
提示词
prompt
Stable Diffusion
Stable Diffusion 入门教程开篇
),后又开源了SDXL(1024*1024)、SDXL-turbo,一般用于图像生成、图像处理等任务,其技术原理: 一种基于变分自编码器(VAE)的潜在扩散模型,它通过在低维度的潜在空间中操作来减少
计
算成本和提高生成图像的速度
Stable
Diffusion
文生图
入门教程
RAG
RAG与Long-Context之争—没必要争
为什么RAG是粗排,Long-Context是精排 从
计
算量角度来看,目前RAG是靠检索系统来进行相关内容过滤,一般采用ES、向量匹配等方法,可以理解
计
算量较小,也就是文本之间交互较少;而Long-Context
RAG
Long-Context
大模型
LLM
ChatPDF | LLM文档对话 | pdf解析关键问题
我们可以得到所有区块的中心点的横坐标,用这一组横坐标的极差来判断即可,双栏论文的极差远远大于单栏论文,因此可以
设
定一个极差阈值。
大模型
大模型
从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
黑板报划重点:这里最重要的两个技术原理,第一Transformer是模型的
设
计
架构,第二是Pre-trained预训练。
大模型
「长文」可能是目前最全的LangChain AI资源库之一
LangChain的UI [50]•LangchainUI[51]:开源聊天AI工具包 [52]•Yeager.ai[53]:Yeager.ai Agent是第一个
设
计
用于帮助您轻松构建
工作
开源
从 GPT-4o 到 LiveKit:实时语音交互的开源实现
最近,我们在微信群里讨论了一个有趣的项目——将 GPT 集成到《流浪地球2》智能量子
计
算机 550 系列潮玩模型中。
GPT-4o
语音交互
开源
3 个令人惊艳的 AI 文档神器,开源了!
Semantra 的
设
计
目的是方便易用,可定制。
大模型
开源模型
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
因此,贾扬清认为我们过于估
计
LLMs的成本,因为有时候我们过于关注单个查询的速度。
大模型
ChatGLM
chatglm3基础模型多轮对话微调
其实数据处理chat_data_module.py中会拼接一些token就是拼接user、assistant、换行等特殊token SFT的方式 假
设
SFT的数据为 Q1,A1,Q2,A2,Q3,
ChatGLM
微调
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
标注人员的任务是编写提示,并在基于
设
定标准的两个模型回答之间进行选择。
大模型
大模型
开源的大模型数据集
数据集二,中文数据集: 供AI训练的中文数据集,目前的数据集餐饮行业8000问,百度知道,Alpaca中文数据集,
计
算机领域数据集,Vicuna数据集,RedPajama
开源模型
数据集
<
...
37
38
39
40
41
42
43
44
45
46
...
>
1
2
4
5
6
7
8
9
100