首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· PPT又又有新突破了!智谱AI代码流造PPT
· Suno音乐新手指南(手把手完整版教程)
· ComfyUI安装及生成第一张图
· 会“追问”的Agent,大模型知识库另类实践
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 聊聊我对AI Agents技术的一些看法
· Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用
· 【工具书】文生图Midjourney最全prompt提示词分类对照表
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
RAGFlow:开源的RAG引擎,专注于深入的文档理解,支持处理各种复杂格式的非结构化
数
据
支持处理各种复杂格式的非结构化
数
据,包括文本、图片、扫描副本、结构化
数
据和网页等。
RAGFlow
RAG
开源
大模型
RPA和大模型结合:开启智能自动化的新纪元
随着人工智能技术的不断发展和创新,越来越多的企业和组织开始探索和应用机器
学
习、深度
学
习、自然语言处理等领域的前沿成果,以提升业务效率和竞争力。
RPA
自动化
大模型
大模型
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
该模型在包含10万小时多语言
数
据的Emilia
数
据集上进行训练,展现出超自然的语音克隆、风格迁移以及跨语种生成能力,同时保持了较强的稳定性。
MaskGCT
声音克隆
微调
大语言模型综述<演进,技术路线,区别,微调,实践,潜在问题与讨论>
Vicuna:加州大
学
伯克利分校在ShareGPT收集的用户共享对话
数
据上,微调了13B规模的LLaMA。
大模型
RAG
忘掉 RAG,未来是 RAG-Fusion!搜索的下一个前沿:检索增强生成遇上倒
数
排名融合和生成查询
这一系统利用向量搜索与生成性人工智能相结合,基于可信
数
据直接产生答案,正在彻底改变搜索和信息检索领域。
RAG-Fusion
检索增强
大模型
大模型能力评估体系
据中国科
学
技术信息研究所的
数
据,国内具有超过10亿参
数
规模的模型已达79个,标志着一场规模宏大的“百模大战”。
大模型
评估
大模型
大模型评测新思路:弱智吧精华问题大全
随着十几年的发展,越来越多的弱智文
学
也有了奇怪的风格,有心灵鸡汤,有现代诗,甚至有一些出现了哲
学
意义。
弱智吧
训练数据集
ChatGPT
使用ChatGPT检查论文引用、提高研究深度
在
学
术研究和
数
据分析的过程中,提高论文质量是每位研究者的追求。
ChatGPT
案例
一个充满多智能体的
数
字社会正在浮现,商业的底层逻辑已进入重构倒计时
事实上,
学
术领域展开了进一步的探讨,我们将能够摘取智能体在沙盒环境中的劳动结果。
大模型
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参
数
Q*细节曝光,53页PDF全网疯转
根据目前泄露出来的信息,Q*的能力,是能够解决小
学
阶段的
数
学
问题。
OpenAI
大模型
大模型
语言大模型100K上下文窗口的秘诀
本文作者Galina Alperovich是英国
数
据安全服务商Soveren的机器
学
习负责人。
大模型
开源
字节开源项目MimicTalk:快速打造逼真3D Talking Face的利器
「MimicTalk」是由浙江大
学
和字节跳动联合研发的一个项目,它利用先进的NeRF(神经辐射场)技术,在「短时间内训练出高质量」的3D说话头像模型,极大地提高了个性化
数
字人视频的生成效率和质量。
MimicTalk
开源模型
大模型
AI扫盲指南!什么是大模型?什么是GPT?什么prompt?什么是大模型参
数
?LLaMA2-70b中70b是什么?
今天,我们一起
学
习讨论一下吧!
大模型
大模型
MindChat心理大模型
数
据词云 目前MindChat的开源模型采用了经过人工清洗的约20万条的高质量多轮心理对话
数
据进行训练, 涵盖工作、家庭、
学
习、生活、社交、安全等多个方面 因
数
据权限限制, 我们目前仅开源了极少量的
数
据案例
心理大模型
LLM
个人从零预训练1B LLM心路历程
尽量详细的分享训练过程中的各种细节:让没有资源训练的同
学
能够了解到他们没有机会从实践得到的知识;让有训练资源的同
学
在复刻过程中少走弯路,以博客形式分享。
LLM
训练
<
...
9
10
11
12
13
14
15
16
17
18
...
>
1
2
4
5
6
7
8
9
100