首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录
就是开源了一个低配版的通义千问模型--通义千问-
7B
-Chat。
大模型
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
初始化模型管道:使用Hugging Face的transformers库为预训练的Llama-2-
7b
-chat-hf模型初始化文本生成管道。
开源模型
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
从实验结果上看,在多语言跟跨语种检索任务上,BGE M3-Embedding的效果超过之前提及的微软E5-mistral-
7b
微软E5-mistral-
7b
-instruct: 站在LLM肩膀上的text
BGE
M3-Embedding
多语音检索
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
该项工作的作者提出 Llama 2 模型:这是经过一系列 预训练和微调的大语言模型 (LLM),其参数规模从
7B
亿到 70B 不等。
大模型
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5B、Qwen2-1.5B、Qwen2-
7B
、Qwen2-57B-A14B 和 Qwen2-72B),这些模型在中文和英文基础上增加了 27 种语言的高质量数据
qwen
千问
开源
大模型
ollama本地部署自然语言大模型
ensp; 安装命令 发布组织 Llama 2
7B
ollama
语言大模型
部署
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL以通义千问70亿参数模型Qwen-
7B
为基座语言模型研发,支持图文输入,具备多模态信息理解能力。
大模型
大模型
llm-action:让天下没有难学的大模型
Alpaca full fine-turning
7B
大模型
LLM
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
和 13B,以及风头正劲的 Mistral
7B
。
开源模型
Gemma
大模型
中文通用大模型最全汇总
Panda: 地址:https://github.com/dandelionsllm/pandallm 简介:开源了基于LLaMA-
7B
, -13B,
大模型
开源模型
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
text-generation-webui, LangChain, privateGPT, vLLM等LLaMA生态 目前已开源的模型:Chinese-LLaMA-2-
7B
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
Q:我是不是用开源6B、
7B
模型自己训练一个模型就够了?
垂直领域
大模型
开源模型
汇总
大模型
大模型实践总结
LLaMA-
7B
/13B/30B/65B :Meta开源的基础大语言模型。
大模型
训练
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
一.引用 在LLaMA2-
7B
这样的原始LLM中使⽤带有噪⾳嵌入进⾏微调时,其在AlpacaEval上的性能从29.8%
NEFTune
大语言模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
就是开源了一个低配版的通义千问模型--通义千问-
7B
-Chat。
通义千问
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100