首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
· Stable Diffusion快速生图,LCM-Lora、sd_xl turbo寄养和亲生谁好?!
· 零一万物API开放平台出场!通用Chat多模态通通开放,还有200K超长上下文版本
· 拒绝996,想出海赚美元?这7个GPT方案绝对靠谱!
· 大模型微调数据选择和构造技巧
· 深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
· 阿里通义实验室薄列峰:从兵马俑跳“科目三”到照片唱歌,四大框架让AI生成的人物活起来丨GenAICon 2024
· Prompt屠龙术-大厂prompt工程指南解析提炼
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
RAG应用中数据处理过程需
要
注意的事项
重复向量的问题:当数据块在chunks中频繁重复时,数据质量可能
会
下降。
RAG
大模型
RAG
RAG与Long-Context之争—没必
要
争
这也是大家的所“争”之处,因为大模型可以接受的长度越长,那么检索的重
要
性就
会
降低,对检索效果的依赖就
会
降低,也就是为什么有人持观点,未来没有RAG,只有Long-Context。
RAG
Long-Context
大模型
大模型
比GPT-4快18倍,世界最快大模型Groq登场!每秒500 token破
纪
录,自研LPU是英伟达GPU 10倍
对于未来AI应用的服务而言,LPU可能
会
带来与GPU相比巨大的性能提升!
Groq
大模型
学
会
这招,一个头像变100种风格!
有两个地方: 当我们生成了一组图片之后,最下面
会
有一排 V,点击之后可以弹出一个小窗继续修改提示词。
Remix
文生图
Stable Diffusion
AnimateDiff:一篇文章教你学
会
用Stable Diffusion制作GIF动图
安装 AnimateDiff 扩展
要
开始使用,不需
要
从 GitHub 页面下载任何东西。
AnimateDiff
视频
训练
OpenAI
震惊!OpenAI发布Meta-Prompt,未来不再需
要
提示词。
2 请明确描述所需生成图像的主题、风格、颜色、细节以及其他关键
要
素。
Meta-Prompt
提示词
清华
震撼科技界:清华大学与智谱AI联手,引领中文长文智能写作新
纪
元!
这份计划详细列出了每个段落的主
要
内容和预期字数。
写作
长文本
Prompt
结构化Prompt必备基础:5分钟学
会
Markdown语法,实现提示词创作自由!
需
要
说明的是,Markdown语法在不同平台可能存在一些细微差别。
Prompt
提示词
Markdown
Prompt
Prompt工程如此强大,我们还需
要
模型训练吗?
Few-shot的使用方法较为简单,但实际上Few-shot有非常多的变种方法,其中一类非常重
要
的变种方法就是围绕提示的示例进行修改,即在示例中不仅提供问题+答案,同时还
会
增加一些辅助思考和判断的“提示
大模型
大模型
会
“追问”的Agent,大模型知识库另类实践
即使切片内容准确,不同问题对切片数量的
要
求也不同。
大模型
大模型
大模型应用中大部分人真正需
要
去关心的核心——Embedding
模型
会
直接影响检索和生成的效率,虽然它不是唯一的影响因素。
大模型
OpenAI
OpenAI 上线新功能力捧 RAG,开发者真的不需
要
向量数据库了?
近期, OpenAI 的开发者大
会
迅速成为各大媒体及开发者的热
议
焦点,有人甚至发出疑问“向量数据库是不是失宠了?”
RAG
检索
向量库
LLM
自己电脑上跑大语言模型(LLM)
要
多少内存?
以我用ollama + Lllama 7B 4bit 做推断(Inference,问大模型问题)为例,模型文件大小是3.8G,实际运行的时候电脑内存
会
多占用大概4.8G左右。
大语言模型
运行
实测:本地跑llama3:70B需
要
什么配置
展示一波LLM排名这么帅还不
要
钱,就问你想不想
要
也许从此强大的模型不再只是厂商云端的特权,现在每个人都可以在本地部署Llama 3。
llama
GPU内存
人工智能
6个AI音乐软件推荐,让你学
会
人工智能AI作曲
以下是Ecrett Music的一些主
要
优势: 提供试用版 直观全面的用户界面 音乐创作操作简单 提供多个订阅计划 2.
训练
音乐
<
1
2
3
4
5
6
7
8
9
10
...
>
1
2
4
5
6
7
8
9
100