首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· Cursor设计主管分享AI写出高质量代码的12个超绝妙招
· 阿里Qwen3系列模型惊艳亮相
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 50+ Midjourney 美食相关提示词,看了别留口水哦
· 12个RAG常见痛点及解决方案
· 微信搜狗爬虫WechatSogou - 从微信公众号获取文章的利器
· 换脸软件 FaceFusion 保姆级教程
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 13个神级Chatgpt指令,助你小说丝滑过审
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
ChatGPT提示工程5篇合集(一):ChatGPT提示工程的两个关键原则 - 吴恩达和OpenAI合作(珍藏版)
没关系,下
面
会一步步分解并举例说明。
prompt
提示词
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
见惯了太多被AI耍得团团转的人类,这次成功骗过AI的小哥,终于给我们人类挣回了一点颜
面
和尊严。
Freysa
智能体
工具
TTS它又来了!OpenVoice:一款借鉴于TTS实现的强大的AI语音克隆工具!
pip install -r requirements.txt 3、下载官方提供的预训练模型,里
面
包含了英文和中文的预训练模型,还有转换器模型。
tts
文本转语音
解码二维码:揭秘我的漂亮二维码生成秘诀!
4、修正二维码,包括: · 修正不和谐的画
面
元素,比如人脸上的斑块。
图像文字
深入浅出:大语言模型中必不可少的技术——Embedding简介
Embedding在大模型中的价值 前
面
说的其实都是Embedding在之前的价值。
embedding
Mixtral 7B 官宣免费,一大波 AI 模型也免费了,有网就能用!
MythoMist 的诞生是为了减少“预期”、“服务”及其衍生词等术语的出现频率,这些术语在 ChatGPT 角色扮演数据集的背景下获得了负
面
含义。
开源
大模型
RAG
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
此外,在推理速度方
面
,利用稀疏注意力机制,Qwen2.5-Turbo将注意力部分的计算量压缩到了原来的2/25,在不同硬件配置下实现了3.2-4.3倍的加速比。
Qwen2.5
开源模型
AIGC
AIGC系列之一-一文理解什么是Embedding嵌入技术
fb3a0ab0cc4d83a673b909035cd0534f97101303e02f744bb776890f3af8d8472b953e4b56ea&scene=27 通过上
面
可视化分析
AIGC
Embedding
嵌入技术
LLM
StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作长篇小说,探索无限长度文本
正如前
面
所强调的,方案既没有扩大LLM的上下文窗口,也没有增强它们的长期记忆。
大模型
llm框架
开源
M3E 可能是最强大的开源中文嵌入模型
正如字
面
含义,嵌入强调的是X与Y的一部分结构相同.
开源模型
ChatGLM
清华大学ChatGLM团队发布AI Agent能力评测工具AgentBench:GPT-4是全能战士,超越所有模型
结果如下: 图注:25个主流LLM作为Agent的能力评估结果 图注:将当前大模型LLM作为AI Agent的综合评测结果 从上
面
的评测结果,我们可以总结出几个重要的结论
GPT-4
大模型
大模型:泛化即智能,压缩即一切
在人工智能领域,通俗地说,泛化是指模型在训练数据中学习到的共性,这样在
面
对从未见过的数据时就能够具备很好的预测能力。
大模型
泛化
ComfyUI
【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
这个代表的意思就是,前
面
20步将采用base模型进行运算。
开源模型
微调
LLM微调经验&认知
可能真人对话数据和指令微调数据(偏书
面
)差距太大了,模型学懵了 ------------------------------------------------ 0606更新: 关于认知 10.
LLM
大模型
白话Embedding:普通人都能懂的科普文
我们期望存储的
面
通过嵌入空间分布: 我们可能会期望这个嵌入空间会编码许多我们从未明确训练过的特征。
Embedding
向量
<
...
81
82
83
84
85
86
87
88
89
90
>
1
2
4
5
6
7
8
9
100