首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· AI Agent新对决:LangGraph与AutoGen的技术角力
· 微信搜狗爬虫WechatSogou - 从微信公众号获取文章的利器
· 我尝试了 100 个免费 AI 工具,这些是最好的
· GPU 性能(数据表)快速参考
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
· 理解 o3 及其技术分析
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI声音克隆 | 最全最简教程(权威版)
· 用ComfyUI整了一套照片转Q版手办的工作流
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
语言大模型100K上下文窗口的秘诀
为训练具有较大上下文长度Transformer,我们的解决方
案
是将其分为两个阶段进行训练:首先在2K个词元的上下文长度上训练基本模型,然后继续在更长的上下文中进行训练(微调),例如65K或100K。
大模型
大模型
11个情感刺激Prompt,高效提升AI大模型性能
例如:"这个结果对我的工作非常重要" 或 "你最好保证这个答
案
是对的" 这些话都可以让模型自我检查并优化输出结果。
Prompt
大模型
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
· Moondream:专为在边缘设
备
上高效运行而设计的一款小型视觉语言模型。
ollama
语言大模型
聊天
心理
万字长文,大语言模型如何宣告心理学的死亡?
同样,人们既可以将LLM所表现出的稳定的偏见归结于某种算法的局限,也可以认为这是LLM所具
备
的心理特征,这取决于研究者的视角。
大语音模型
Stable Diffusion
Stable Diffusion | 常见问题清点汇总
解决方
案
: 打开电脑代理:快捷键win+i,搜索:代理,选择代理服务器设置 复制端口号, 打开SD设置-Civitai助手,粘贴进去
Stable
Diffusion
问题汇总
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了
如果在文章中找不到答
案
,请写“我找不到答
案
”。"""
提示词
prompt
万字长文-大语言模型指令调优综述
在带有混合精度训练和完全共享数据并行的8卡80GB A100设
备
上,微调过程大约需要3个小时。
大语言模型
ComfyUI
SD-WebUI和ComfyUI的局域网访问设置
设置完成之后,可以在台式Windows上开一个软件,然后在MacBook上或者IPad进行AI绘画了,当然也支持任何带浏览器的设
备
。
comfyui
stablediffusion
ComfyUI
教会AI画汉字(ComfyUI篇)
controlnet点位链接 并创立一个图像缩放节点,并在其后加一个加载图像来上传文字图像,再将图像缩放接入到“高级controlnet应用”节点的图像点位 像这样 等准
备
好这些之后将默认工作流中的正向提示词与逆向提示词连接到
comfyui
文生图
提示词
GPT提示词必杀技:思维树法
思维树的原理是: § 把一个问题分解成多个子问题 § 每个子问题的解决思路给出几种方
案
§ 模型自己评估自己给出的子问题的解决思路(如果某个子问题的解决思路是错的,就会直接舍弃这个方
案
GPT
提示词
Stable Diffusion
小白也可以一键安装的Stable Diffusion——Easy Diffusion
你可以完全不具
备
任何技术知识,也不需要配置什么软件环境。
Stable
Diffusion
插件
安装
查理·芒格 :关于人生的13个忠告
有些答
案
很简单,例如,懒惰和言而无信会让我们在生活中失败。
人生箴言
查理芒格
OpenAI
来自OpenAI应用研究主管关于Agent的万字长文-AI Agents介绍
我们也可以为 LLMs 配
备
外部工具来显著扩展模型的能力。
Agent
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
尽管配
备
了八个专家,在实际运算时每个Token仅需两个专家参与。
开源模型
Mixtral
8x7B
OpenAI
《OpenAI官方:GPT 最佳实践》大白话编译解读版本
在查询中包含详细信息以获得更相关的答
案
2.
提示词
官方
翻译
<
...
31
32
33
34
35
36
37
38
39
40
...
>
1
2
4
5
6
7
8
9
100