首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· Stable Diffusion | 常见问题清点汇总
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· 用ComfyUI整了一套照片转Q版手办的工作流
· Stable Diffusion 30种采样器全解!
· 【语音领域-又双叒更新】阿里开源FunAudioLLM: 2大核心模型、5大亮点功能!效果炸裂!手把手带你理论+实战部署推理!
· Python程序混淆和打包exe文件流程和方法
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
全网最全AI绘画Stable Diffusion关键技术解析
背景 很多人觉得AI绘画不稳定,
对
于以后替代插画师、摄影工作者、设计师、表示存疑,作为AI从业者从AI绘画关键技术分析,以前生产者肯定会被淘汰,现在没有到达黄金期。
Stable
Diffusion
文生图
数据分析思路系列-如何建立指标体系
我曾经看到过这么一句
话
:拆解指标是一切业务工作的前提。
数据分析
指标体系
LLM
PymuPDF4llm:PDF 提取的革命
一、告别LamaPars,迎接开源自由 在过去,当我们面
对
海量的PDF文件时,往往束手无策。
PymuPDF4llm
PDF
开源
国内外开源大语言模型一览表
,同时也是首个针
对
中文金融领域优化的千亿级开源
对
话
大模型。
大模型
开源
Chinese-LLM开源中文大语言模型合集
、插件增强学习和人类偏好训练具备多轮
对
话
能力及使用多种插件的能力。
大模型
中文
开源
GLM4 开源了!!!还有多模态
GLM-4-9B 不仅仅是一个模型,它是智谱 AI
对
深度学习和自然语言处理能力的一次全新探索。
智普
ChatGLM
多模态
我如何夺冠新加坡首届 GPT-4 提示工程大赛 [译]
对
话
示例 [Agent]: 早上好,今天我能为您做些什么?
GPT-4
提示词
大模型
发现一个好东西,一键本地运行各种大模型!包括最新的Qwen1.5
只要只支持GGUF的大语言模型,都可以一键安装,一键运行,立马开始
对
话
。
Qwen1.5
大模型
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
Qwen-VL是支持中英文等多种语言的视觉语言(Vision Language,VL)模型,相较于此前的VL模型,Qwen-VL除了具备基本的图文识别、描述、问答及
对
话
能力之外,还新增了视觉定位、图像中文字理解等能力
大模型
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
直接让LLM做角色扮演
对
话
会出现一些问题:例如,LLM喜欢抽取Prompt的要素而非好好说
话
;或是不怎么利用Prompt的要素而说一些无关紧要的
话
;又或是LLM干脆不知所措,说一些莫名其妙的
话
。
LLM
Agents
ChatGPT
建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
提示:
对
于“[润色前的句子]”这句
话
,为什么你润色为成“[润色后的句子]”。
论文润色
写作
智谱AI静悄悄的上线了一大波新模型,过年了,真的
说实
话
,我懵逼了,也麻了。
智谱AI
大模型
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
所以,文章尽量保持了他说
话
风格的原汁原味。
朱啸虎
AGI
OmniVision - 968M:小巧精悍的视觉语言模型,释放多模态边缘计算强大潜能
在预训练阶段,模型专注于利用大量的图像 - 字幕
对
数据,建立起基本的视觉语言
对
齐关系。
OmniVision
-
968M
多模态模型
OpenAI
最全攻略!OpenAI 发布 GPT-4 使用指南,所有干货全在这
对
于需要处理很长
对
话
的应用场景,总结或过滤之前的
对
话
模型在处理
对
话
时,受制于固定的上下文长度,不能记住所有的
对
话
历史。
提示词
prompt
<
...
29
30
31
32
33
34
35
36
37
38
...
>
1
2
4
5
6
7
8
9
100