首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 盘点字节跳动最新的AI应用
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Stable Diffusion 30种采样器全解
· SD入门教程二:文生图基础用法(提示词)
· AI Agent行业深度:框架拆解、应用方向、应用领域及相关公司深度梳理
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Suno音乐新手指南(手把手完整版教程)
· 7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
CLiB中文大模型能力评测榜单(持续更新)
2 分类能力排行榜 3 信息抽取能力排行榜 4 阅读理解能力排行榜 4.1 表格问答排行榜(阅读理解细分能力) 表格问答
作
为阅读理解细分能力
大模型
人工智能评测
人工智能
人工智能训练的灾难性遗忘以及解决方案
当我们的大脑在思考、学习、记忆的时候,就是这些神经元和突触在发生
作
用。
人工智能
大模型
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
根据上下文窗口大小和用
作
上下文的输入变量,它可以适应不同的LLM类型,例如对话历史记录、搜索结果、先前的答案等。
开源模型
如何使用 Megatron-LM 训练语言模型
为了构建索引,首先根据训练参数计算每个 epoch 的数量,并创建一个排序,然后对数据进行 shuffle 操
作
。
开源模型
教育
解读:一个数学在线教育网站如何做到一千万月访问量
从下
图
可以看到,在美国市场,cuemath依靠搜索引擎,得到了800万的流量。
访问量
ComfyUI
用秋叶启动器安装fooocus,comfyui
一个铁锅炖一个测试插件用的,就是上面截
图
带秋叶启动器的。
ComfyUI安装
揭秘DeepSeek:一个更极致的中国技术理想主义故事
在硅谷,DeepSeek被称
作
“来自东方的神秘力量”。
DeepSeek
大模型
人工智能
深度洞察:人工智能体(AI Agent)2024年重要发展趋势指南
LLM在生成文本、
图
像和代码输出方面令人印象深刻,这些输出可供人们在工
作
中使用(或只是为了娱乐)。
AI
Agent
人工智能
微调
一文讲明白什么是预训练、微调和上下文学习
预训练模型
作
为广泛的自然语言处理任务的基础,例如文本分类、命名实体识别和情感分析。
大模型
训练
大模型
大模型微调应用实践,没那么简单,看看曾经踩过的坑
对比之前的AI(小模型意
图
、话术策略)+人工模式,发现之前的初始阶段通过率高些,初步判断可能是用户说的太发散,大模型不好收敛。
大模型
大模型
AI里的大模型,你了解么
但是,近年来,可解释性成为了人工智能技术发展中的重要问题,相关工
作
也取得了一些重要的突破。
人工智能
在飞速发展的时代管理AI风险
仅仅四年后,深度学习系统就可以编写软件,根据需求生成逼真的场景,就知识主题提供建议,并结合语言和
图
像处理指导机器人。
人工智能
伦理
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
论文内的性能如下
图
: 好了,以上就是Gemma的简单介绍,有兴趣的小伙伴可以看下原文: 传送门:https://blog.google/technology/developers
ollama
gemma
qwen
ChatGPT
ChatGPT 技巧 | Prompt 逆向工程
而且湿巾上的
图
案非常可爱,让我想起了童年的时光。
chatgpt
提示词
prompt
OpenAI
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
相反,“让每一个参数发挥最大的
作
用”,在同等参数量上实现更好的性能,才是解决大模型“高效”训练的核心。
Grok-1
开源模型
<
...
78
79
80
81
82
83
84
85
86
87
...
>
1
2
4
5
6
7
8
9
100