首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 掌握Prompt的6心法
· 傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
· Stable Diffusion的模型分类以及使用
· 大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
· 一文汇总市面上所有prompts提示词框架!
· 鹅厂版AI笔记悄悄上线,微信公众号优质内容秒变专属知识库,实测在此
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· GenColor.ai
· MCP服务介绍及应用场景报告-来自Manus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
智谱AI官网再升级,GLM-4,智能体,AI作图长文档全部搞定!
文档提问对文章提问,大模型利用文章内容回答文档总结提取文章核心观点,要
求
简明扼要文档翻译选择文章中的内容翻译为英文点评:长文档解读这个功能使用体验还是不错的,但是限制20兆的上传大小还是有点难受的 数据分析
GLM-4
智能体
混合专家模型 (MoE) 详解
然而,这种模型需要将所有参数加载到内存中,因此对内存的需
求
非常高。
MoE大模型
视频
AI创作 |如何通过GPT进行漫画视频的故事改写
· 可以支持5-10MB的文本内容上传,但由于目前处于测试阶段,每日请
求
总量是有限制的。
生成式AI
StableDiffusion
深度解析丨StableDiffusion在多个设计场景中的探索与应用
我们每天都在与图像和文字打交道,而如何让它们更生动、更吸引人,正是设计师们的永恒追
求
。
文生图
大语言模型应用中的文本分块策略
其次,它将确定是否能够在将检索到的文本发送到外部模型提供者(例如OpenAI)之前将其放入上下文中,因为我们可以为每个请
求
发送的token数量受到限制。
开源模型
AI撬开小县城的万元商机
目前正在架构智能推荐系统,可以通过分析消费者的购买历史和喜好,让平台为消费者推荐更加符合他们需
求
的商品,提高购物的效率和满意度。
AI
商机
ChatGPT
ChatGPT提示工程5篇合集 - 吴恩达和OpenAI出品
也可以一次性执行多个任务,从而节省多次请
求
的整体耗时和成本。
ChatGPT
prompt
提示词
提示词框架:BROKE
ensp; - **3.1** 利用论坛(如 Stack Overflow、Reddit的r/MachineLearning)和社区来分享你的项目,并寻
求
反馈
BROKE
提示词
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
幻方x深度
求
索在萤火智算集群上进行大量的 RLHF 训练实践,研发优化了一套轻量的 PPO 训练工具,名叫 HAI-Chat。
HAI-Chat
RLHF
Stable Diffusion
Stable Diffusion WebUI v1.8.0重大更新!
这对于SDXL用户来说是个好消息,此外,甚至可以直接使用FP8精度的ckpt模型,这样能直接减少内存需
求
。
SD
画图
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
面对诸多开源本地模型,根据自己的需
求
,选择适合自己的基座模型和参数量很重要。
大模型
人工智能
开源
有感情的语音合成开源模型:ChatTTS安装使用详解
ChatTTS的使用过程相对简单,用户只需提供文本信息即可获得语音文件,这对于有语音合成需
求
的用户来说非常方便。
ChatTTS
语音合成
GPTs
深入探讨GPTs和AI Assistant
它提供了一种新的方式来使用ChatGPT,可以让用户根据自己的需
求
定制化,并与其他用户共享。
GPTs
AI
Assistant
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
关于词表大小设置,越大的词表的压缩会更好,但可能导致模型训练不充分;越小的词表压缩会比较差,导致模型对长度需
求
较高。
大模型
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
我之前介绍过的千问(Qwen)和百川(baichuan)运行要
求
就是8G+显存。
大模型
ChatGLM
<
...
33
34
35
36
37
38
39
40
41
42
...
>
1
2
4
5
6
7
8
9
100