首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 盘点字节跳动最新的AI应用
· 13个神级Chatgpt指令,助你小说丝滑过审
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 文生图提示词prompt详解
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· Comfyui工作流原理 你都了解吗
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· 【NLP技术分享】文本生成评价指标的进化与推翻
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
让AI记住你说的话、让AI给你生成几十万字的小说!StreamingLLM 让无限长token成为可能
MIT、Meta AI、CMU的论文 传统AI大模型鱼一样健忘的原因 LLM都是在一定长度的数据块(或者叫做
序
列)上进行预训练的,比如Llama 2就是在4000个单词(或者叫做token
StreamingLLM
写作
提示词
【爆肝整理】500+ AI 最佳提示词
请给我一个关于如何构建一个(功能)的应用
程
序
的指南。
提示词
大模型
大模型应用设计的10个思考
在这个过
程
中,我们可能会受到诱惑,想要回到那种命令式的思维模式,为
程
序
的每个细节编写代码。
大模型
应用
ChatGPT
如何使用ChatGPT进行写作
要使ChatGPT完全遵循你的意图进行创作,需要一个不断优化和试验的过
程
。
ChatGPT
写作
爬虫
一本Python爬虫的书,凭什么能畅销10W册
对于从事数据科学和机器学习领域的
程
序
员而言,Python 提供了强大的 API 和丰富的库,使其成为这一领域的首选编
程
语言。
爬虫
python
工具
【AI绘图工具】太爆炸了,AI出图速度100fps(每秒100张图片),比LCM、SDXL Turbo更快,目前No.1
这种方法通过将扩散过
程
重新框架化为ODE来实现。
StreamDiffusion
文生图
大模型
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型,零代码集成。
所有的
程
序
和文档都不会离开你的电脑,完全运行在本地。
知识库MaxKB
开源
工具
WeChatpy:Python中优秀的微信开发库,与微信官方接口交互的工具
多种功能支持:WeChatpy支持微信公众号、企业微信、小
程
序
和支付等多种微信功能的开发和调用。
WeChatpy
开发库
大模型
RPA和大模型结合:开启智能自动化的新纪元
其中,两种技术引起了广泛的关注和讨论,分别是RPA(Robotic Process Automation,机器人流
程
自动化)和大模型(Large Models,基于大规模数据和计算资源训练的深度学习模型
RPA
自动化
大模型
阿里
阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
整个方案的框架有几个特色:第一,有一张参考图,整个生成过
程
会对参考图做高度的保真。
通义
文生视频
ComfyUI
ComfyUI 图片以及工作流管理神器
不仅如此,还可以远
程
订阅官方或者大佬们公开的工作流网站,方便我们学习最新的工作流技术,与时俱进。
comfyui
工作流
Python
LangChain手册(Python版)11模块:提示模板
在考虑将 LLM 应用
程
序
投入生产时,这个概念非常重要。
大模型
Prompt
Prompt及AI提问实践
客服:一般情况下,退货或换货过
程
需要7-10个工作日。
Prompt
大模型
提问
白话Embedding:普通人都能懂的科普文
向量是标量值的有
序
列表,即数字。
Embedding
向量
Transformer
如何最简单、通俗地理解Transformer?
首先,Transformer引入的自注意力机制能够有效捕捉
序
列信息中长距离依赖关系,相比于以往的RNNs,它在处理长
序
列时的表现更好。
Transformer
大模型
<
...
22
23
24
25
26
27
28
29
30
31
...
>
1
2
4
5
6
7
8
9
100