首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub星数暴涨,AIPC的开源实现,用AI记录电脑一整天的使用太简单了,功能非常多!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 两个案例教你如何用BRTR原则优化Prompt
· 万字长篇!超全Stable Diffusion AI绘画参数及原理详解
· ComfyUI-DDetailer脸部修复
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 文心一言大模型使用指南
· ChatGPT提示词万能模板:BRTR原则,让ChatGPT完美理解你的需求
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
懒人福音!用AI生成会议纪要,让你的工作更高效!
4
.
会议纪要
AI工具
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
130B貌似只有
GLM
大模型是这个参数。
大模型
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
ChatGLM-6B采用了与
GLM
-130B[
4
]相同的模型结构。
大模型
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
使用最大token集为
4
生成并按平均标记似然排序的输出为: Likelihood Text -0.96 a truly immersive experience -1.11
大模型
大模型
最强开源大模型Llama 3,在扎克伯格设想中其实是这样的
好吧,我不一定想等到 Llama
4
出现后才开始构建这些功能,所以让我们开始破解它。
Llama
3
大语言模型
万字长文-大语言模型指令调优综述
4
.
大语言模型
超越Claude-2.1和GPT-3.5-Turbo,Qwen1.5还藏了哪些黑科技?32K Tokens上下文支持只是开胃菜!
虽然在对齐上暂时没追上GPT-
4
-Turbo,但别小看它!
Qwen1.5
开源模型
大模型
大模型实践总结
典型代表有:T5、BART、
GLM
等。
大模型
训练
实测:本地跑llama3:70B需要什么配置
3 70B的能力通过测试结果的展示已经达到了一个全新的高度,甚至可以与Claude 3 Sonnet和Gemini 1.5 Pro等一众顶级模型相媲美,甚至在某些方面已经超过了去年发布的两款GPT-
4
。
llama
GPU内存
李彦宏偏爱小模型|AI光年
4
月16日,李彦宏在Create 2024百度AI开发者大会上分享了基于大模型开发AI原生应用的三个思路:&ensp
李彦宏
小模型
目前大语言模型的评测基准有哪些?
该平台已提供了 30 多种能力、5 种任务和
4
大类指标,共 600 多个维度的全面评测,任务维度包括 22 个主客观评测数据集和 84433 道题目。
人工智能评测
大模型
Agent
AI Agent的千亿美金问题:如何重构10亿知识工作职业,掀起软件生产革命?
AI Agent 今年
4
月在开发者社区格外火热,AutoGPT 成为 Github 历史上涨星最快的项目。
大模型
AI编程
工具
20个常见AI绘画工具大汇总(含免费版哦~)
AI绘画通常利用深度学习算法、神经网络[1]和已有的数据集[2],如生成对抗网络(Generative Adversarial Networks,GANs)[3]和神经风格迁移[
4
]等技术,来学习和理解绘画的特征
文生图
开源
最新最全的开源中文大语言模型列表
github.com/THUDM/ChatGLM2-6B 简介:基于开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,引入了
GLM
大模型
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
ChatGLM2-6B 使用了
GLM
的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(
知识库
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100