首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 大语言模型微调:定制自己的微调数据集
· [开源]面向中小团队的轻量化知识管理应用,构建知识库和知识社区
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· AIGC系列之一-一文理解什么是Embedding嵌入技术
· RAGFlow:开源的RAG引擎,专注于深入的文档理解,支持处理各种复杂格式的非结构化数据
· Stable Diffusion 30种采样器全解!
· 改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
· 【Stable Diffusion】高效率视频转AI动画!EbSynth插件全流程操作
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
工具
3.5k Star! 一分钟搭建一个属于你自己的开发工具箱!——It-tools
站长工具箱在工作
中
应该会有很多人使用,比如说 JSON格式化,UUID生成器,密码生成、URL编码等 。
IT-TOOLS
开源模型
Prompt
Effective Prompt: 编写高质量Prompt的14个有效方法
在本
文
中
,笔者总结了一些常见的Prompt设计准则,希望能帮助大家更好地驾驭大模型这一强大的生产力工具。
prompt
提示词
大模型
大模型实践总结
GLM-10B/130B :双
语
(
中
文
和英
文
)双向稠密模型。
大模型
训练
开源
8 月份 火火火火 的 GitHub 开源项目
一个清新
文
艺的微社区 2.
大模型
查理·芒格 :关于人生的13个忠告
与之相反,如果不努力去实践这种跨科学的方法,你们
中
的许多最聪明的人只会取得
中
等成就,甚至生活在阴影
中
。
人生箴言
查理芒格
工具
世界顶级七大管理工具:SWOT、PDCA、6W2H、SMART、WBS、时间管理、二八原则、波特五力分析
导
语
:所谓人性,简洁描述为“己所不欲,勿施于人”,依循人性是管理最便捷方式。
管理工具
动作识别模型有哪些
这篇
文
章主要有以下三个贡献点。
动作识别
模型
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
MiniCPM-V 2.6 是 MiniCPM-V 系列
中
最新、性能最佳的模型。
MiniCPM-V
2.6
大模型
Prompt
Prompt全攻略(二):Prompt编写的要诀
例如“你是一个来自加拿大的旅游博主,介绍下
中
国的长城”。
prompt
Prompt
你的AI还在睡觉?33条Prompts让它瞬间变身超能力团队!
考虑诸如照明、噪
音
水平、人体工程学以及必要的工具或资源等方面。"
提示词
写作
花钱买AI写作工具?究竟哪款工具值得你掏钱
我梦想
中
的工具:点点点,
文
章就出来了!
写作
ChatGPT
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
具体来说,YOCO由L个块堆叠而成,其
中
前L/2层是自解码器,其余模块是交叉解码器。
Decoder-Decoder
YOCO
架构
Prompt
写好Prompt提示工程的一套通用框架 - 5个关键要素
我会用任意一种
语
言向你讲话,你要检测这种
语
言,将其翻译并用纠正过的、改良版的英
文
版本回答我。
Prompt
提示工程
OCR
Windrecorder:连续记录屏幕内容,通过OCR技术识别记录内容
https://github.com/Antonoko/Windrecorder 下载该工具; 可以打开想要安装的
文
件夹,在路径栏输入cmd并回车,进入当前目录终端,将以上命令贴入、
Windrecorder
录屏
CodeGeeX2来了!效果超LLaMA2-70B
得益于ChatGLM2优秀特性,CodeGeeX2更好支持
中
英
文
输入,支持最大 8192 序列长度,推理速度较一代 CodeGeeX-13B 大幅提升,量化后仅需6GB显存即可运行,支持轻量级本地化部署
CodeGeeX2
开源模型
<
...
76
77
78
79
80
81
82
83
84
85
...
>
1
2
4
5
6
7
8
9
100