首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
python环境建议3.9+ pip install -r requirements.txt 其次安装 lfs 方便本地下载 LLaMa 大模型 git lfs install # 下载
7B
LLaMA
大模型
CLiB中文大模型能力评测榜单(持续更新)
最近更新 [2023/7/2] 发布v1.3版本评测榜单 新增3个大模型:360智脑、MOSS-003-SFT、AquilaChat-
7B
讯飞星火更新为最新的v1.5
大模型
人工智能评测
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
Baichuan-13B 有如下几个特点: 更大尺寸、更多数据:Baichuan-13B 在 Baichuan-
7B
的基础上进一步扩大参数量到130亿,并且在高质量的语料上训练了1.4万亿 tokens
大模型
中文
开源
Chinese-LLM开源中文大语言模型合集
基于RWKV架构的Chat模型(包括英文和中文),发布了包括Raven,Novel-ChnEng,Novel-Ch与Novel-ChnEng-ChnPro等模型,可以直接闲聊及进行诗歌,小说等创作,包括
7B
大模型
中文
国产“小钢炮”MiniCPM3-4B:小参数,大能量!
在综合评测的平均分上,MiniCPM3-4B 以 66.3 的得分超越了 Qwen2-
7B
(65.3) 和 GLM-4-9B-Chat(65.0)&ensp
MiniCPM3-4B
大模型
LLM
自己电脑上跑大语言模型(LLM)要多少内存?
比如Gemma
7B
里,Gemma是模型的名称,一般指代一个系列的模型。
大语言模型
运行
大模型
万字长文,AI大模型的应用实践总结
· · LLaMA-
7B
/13B/30B/65B :Meta开源的基础大语言模型。
大模型
ChatGPT
ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出
为Vicuna-
7B
设计的攻击,可以迁移到其他羊驼家族模型身上,比如Pythia、Falcon、Guanaco,甚至GPT-3.5、GPT-4和PaLM-2……所有大语言模型一个不落,尽数被攻陷!
开源模型
开源
只需四步就能构建自己的Agent!达摩院新开源框架小白也能用
基于该训练方法和配套的开源中英文工具指令调用数据集MSAgent-Bench,基于Qwen-
7B
优化训练了MSAgent-Qwen-
7B
模型,相关数据集和模型都已开源。
大模型
AI Comic Factory:AI(连环)漫画生成器
默认情况下,我们建议使用 CodeLlama 34b,因为它会提供比
7b
模型更好的结果。
生成式AI
ChatGPT
数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品
HuggingFace已上线3个在线可玩版本(分别为
7B
、13B和70B参数),各种数学题可以直接丢进去试一试。
开源模型
开源
截至2023年5月份业界支持中文大语言模型开源总结及商用协议分析
从这些特点看,MPT真的是一个很优秀的开源大模型,且官方宣称它的评测结果与LLaMA-
7B
差不多,目前已经开源70亿参数规模的MPT-
7B
。
大模型
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
Phi-2只有2.7B的参数,在各种基准上,性能超过了Mistral
7B
和 Llama-2 13B的模型性能。
小语言模型
万字长文-大语言模型指令调优综述
在评估方面,GPT-4-LLM (
7B
)不仅优于基准模型Alpaca (
7B
),而且优于更大的模型,包括 Alpaca (13B)和 LLAMA (13B)。
大语言模型
大模型
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
该模型名为「Chinese Llama 2
7B
」,由国内 AI 初创公司 LinkSoul.Al 推出。
开源模型
<
1
2
3
4
5
6
7
8
9
>
1
2
4
5
6
7
8
9
100