首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 用AI为古诗词生成插画
· 从专业ASR到统一音频LLM:七大顶尖模型的深度对比分析
· Suno音乐新手指南(手把手完整版教程)
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
· 6个AI音乐软件推荐,让你学会人工智能AI作曲
· Stable Diffusion 加速/优化/升级 优化出图速度
· 通义千问
· 结构化Prompt必备基础:5分钟学会Markdown语法,实现提示词创作自由!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Ollama 与 Dify:AI 应用开发的强强联合
然而,在
本
地环境中部署和管理 LLM 仍然是一项挑战。
Ollama
Dify
大型语言模型
开源
几款开源的OCR识别项目,收藏备用
免费,支持多语言,多平台; https://github.com/tesseract-ocr/tesseract.git tesseract.js js版
本
的
OCR
RAG
高级 RAG 技术——图解概览
二、原始 RAG
本
文
讨论的 RAG 流水线起始于一个
文
本
文
档语料库 。
RAG
检索
图解
语音
「语音转换新速度」— 探秘Whisper JAX的70倍速提升
它是OpenAI的Whisper模型的JAX版
本
,实现了在TPU上高达70倍的速度提升,这不仅是对现有技术的重大突破,更是对未来潜力的一次展现。
Whisper
语音识别
Prompt
prompt必须知道的26条军规
21、要编写一篇详细的
文
章/
文
本
/段落/
文
章或任何类型的
文
本
:“为我详细地写一篇关于[主题]的[
文
章/
文
本
/段落],添加所有必要的信息。”
prompt
大模型
将这些“阴谋诡计”喂给AI,使AI一天写一篇短篇小说
阴谋不是为了阴谋
本
身,而是为了达成更高的目的。
AI
写作
XX来信: 智能体设计模式2:Reflection
在
本
周的来信中,我想重点讨论一下Reflection(反思)。
Reflection
智能体
AI改变未来,ChatDoc手把手教你写研报
尤其是在CV等其他方向,中国无论是技术还是论
文
,都比较领先。
大模型应用
写作
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
Qwen2 系列模型包括五个尺寸的模型(Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B),这些模型在中
文
和英
文
基础上增加了 27 种语言的高质量数据
qwen
千问
开源
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
我们希望
本
文
的实验结论能对大型语言模型的训练提供有益的启示,特别是在中
文
领域,协助研究者在训练成
本
与模型性能之间找到更佳的权衡策略。
训练
大模型
belle
深度|红杉重磅发布:2024 AI 50 榜单 (全网最全)
AI如何推动企业创新和降
本
增效?
生成式AI
榜单
AI应用
如何修复GPT幻觉、及评估数据集的挑战
本
文
首先概述了幻觉如何仍然是LLM面临的一个持续挑战,然后是解决幻觉和可靠性问题的步骤(以及相关的研究论
文
)。
大模型
LLM
从专业ASR到统一音频LLM:七大顶尖模型的深度对比分析
本
报告对代表这一技术光谱的七款著名模型进行了深入的比较分析: 通用及专业ASR模型: 这些模型高度优化了语音转
文
本
的核心任务,优先考虑准确性和效率。
音频
对比
ChatGPT
实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
-
文
章选题: 我是[研究员],我擅
长
选择
文
章主题。
Agent
写作
微软
微软打破Decoder-Only架构!大幅降低GPU内存需求,网友:把Llama3 70B弄20GB GPU上运行
可扩展性对比 接着,研究人员在160M到13B参数规模范围内,分别训练了YOCO(门控保留和滑动窗口注意力版
本
)和Transformer语言模型。
Decoder-Decoder
YOCO
架构
<
...
53
54
55
56
57
58
59
60
61
62
...
>
1
2
4
5
6
7
8
9
100