首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Stable Diffusion 加速/优化/升级 优化出图速度
· ComfyUI-基础图生图&基础图片缩放
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 芯片拼接技术:英伟达新核弹,站在苹果的肩膀上!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Stable Diffusion | 常见问题清点汇总
· SD入门教程四:图生图基础用法
· Coze多智能体(Multi-Agents)模式体验!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
GLM4 开源了!!!还有多模态
今天,我们要分享一个
令
人震撼的消息:智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本——GLM-4-9B,现已全面开源!
智普
ChatGLM
多模态
RAG
2023检索增强生成技术(RAG)研究进展
技术上,它将信息检索与
微
调
、强化学习等技术相结合。
RAG
检索增强
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
2.3、专注于
指
令
跟随版本的
微
调
开发者们深入研究 Mixtral 8x7B 的潜能时,一个重点是对其进行
微
调
,特别是针对那些能够跟随
指
令
操作的版本。
开源模型
Mixtral
8x7B
大模型
腾讯开源混元AI绘画大模型
从对比来看,基本超越了MJ v6,遥遥领先SDXL,和SD3基本打平,距离
微
软的DALL-E3有一点差距。
腾讯
混元
文生图
开源
ChatGLM3-6B:新一代开源双语对话语言模型,流畅对话与低部署门槛再升级
因此,在这一模式下,你只需要
指
明希望模型执行的任务即可。
ChatGLM3
语音模型
开源模型
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
· Phi 3 Mini:由
微
软推出的新型3.8B参数、轻量级、尖端开放模型。
ollama
语言大模型
聊天
大模型
百模大战,谁是大模型的裁判员?
截至目前,国内外已有数百种大模型出世,但无论何种大模型,在亮相阶段,无一例外地都在强
调
自身的参数量,以及在各个评测基准上的评分。
大模型
Nvidia发布Llama3-ChatQA-1.5: 提升对话问答和表格推理能力,平均性能超越GPT-4
该模型在对话式问答和检索增强型生成等能力方面表现出色,在综合评测
指
标上甚至超越了当前业界顶尖的GPT-4模型。
Llama3-ChatQA-1.5
对话问答模型
RAG
高级 RAG 技术——图解概览
这对于处理后续问题、
指
代或与先前对话上下文相关的用户命
令
至关重要。
RAG
检索
图解
提示词
分享一个结构化AI提示词模版
一项
调
查显示,超过80%的用户都在"跟AI对牛弹琴"。
提示词
模板
ChatGPT
实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
例如,当你想让 ChatGPT 写一篇文章时,你需要给出详细的
指
令
和提示词,甚至还需要人工干预进行
微
调
。
Agent
写作
【AI绘画】入门英文名词解析
最近AI绘画爆火,由于是艺术和技术的跨界结合,因此出现了大量专有名词(英文和中文都有),有些是公司名,有些是项目名,有些是技术名词,有些特
指
模型,有些特
指
插件或者网站,有些是二次元人物,游戏风格等,
文生图
AI绘画
开源
开源版妙鸭相机来了,无限出个人写真图(阿里达摩院出品)
脚本运行 如果不想启动服务,而是直接在命
令
行进行开发
调
试等工作,FaceChain也支持在python环境中直接运行脚本进行训练和推理。
妙鸭相机
人工智能
AI产品经理视角:如何构建人工智能产品
另一方面,如果您想对现有大型模型进行
微
调
并进行最后的专业化处理,那么您可能更看重质量而不是数量。
大模型
产品经理
如何使用 Megatron-LM 训练语言模型
25 \ --append-eod workers 和 chunk_size 选项
指
的是预处理中使用的线程数量和分配给每个线程的数据块大小
开源模型
<
...
15
16
17
18
19
20
21
22
23
24
...
>
1
2
4
5
6
7
8
9
100