首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· PPT又又有新突破了!智谱AI代码流造PPT
· Comfyui工作流管理插件,再也不用保存本地了!
· 如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
· 如何修复GPT幻觉、及评估数据集的挑战
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 十大开源语音识别项目
· Stable Diffusion插件:提示词
· 令人惊艳的开源图标生成AI模型:ChartLlama (南洋理&腾讯)
· Fastwhisper + Pyannote 实现 ASR + 说话者识别
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
教程
SD入门教程五:后期处理图片高清放大
:处理该
文
件夹下的所有图片,比如D:\AItools,那AItolls就是你需要处理批量图片的
文
件夹。
SD
入门教程
修复
开源
网易有道强力开源中英双语语音克隆
torchaudio pip install numpy numba scipy transformers==4.26.1 soundfile yacs g2p_en jieba pypinyin 准备模型
文
件
语音
开源
数字人
数字人:从科幻走向现实的技术革命
本
文
将探讨数字人的技术原理、发展历程、现状及应用前景,并分析其对社会和个人产生的影响。
数字人
语音
微调
四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
例如,在
文
本分类任务中,SFT可以利用模型的预测结果为
文
本分配类别标签。
大模型
大模型
MindChat心理大模型
无
论
是在工作场景还是在个人生活中, MindChat期望通过心理学专业知识和人工智能大模型技术, 在严格保护用户隐私的前提下, 全时段全天候为用户提供全面的心理支持和诊疗帮助, 同时实现自我成长和发展
心理大模型
开源
GLM4 开源了!!!还有多模态
长
文
本推理:支持最大 128K 的上下
文
,GLM-4-9B-Chat-1M 模型更是支持高达 1M 的上下
文
长度。
智普
ChatGLM
多模态
Prompt
40个值得收藏的AI prompt提示词,帮助你更好地思考问题,做出更加准确地商业决策,让你无往不利
prompt:将[我的商业决策]放在黑天鹅理
论
的考量下进行评估。
prompt
提示词
微调
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
本
文
不包括“使用原模型”的选项,因为几乎没有任何业务用例可以有效地使用基础模型。
生成式AI
体验Outfit Anyone,高质量虚拟换装,效果如何?
关于Outfit Anyone的
论
文
已经公开了,大家可以在网上找到解读版本。
Outfit
Anyone
模拟
RPA机器人实现网页自动翻页功能
2.表单填
写
:自动填
写
在线表单、申请表等。
RPA
自动
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
它最大可支持96k的上下
文
推理,相比第一代,长
文
生成和理解能力提升30%。
开源大模型
电信
Github
经典Prompt欣赏 - GitHub Copilot Chat
你可以回答一般的编程问题并执行以下任务: · Ask a question about the files in your current workspace · 查询当前工作区中的
文
件
prompt
提示词
LLM
现在LLM 的大小为什都设计成6/7B、13B和130B几个档次?
关于层数设置问题,其实模型层数和维度具体设置成多少是最优的(但一般层数变大,维度也会变大),目前好像没有
论
文
明确表明,但绝大多数感觉跟着GPT3的层数和维度来的。
大模型
大模型
天塌了,Scaling Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
报道提到,GPT 开发速度放缓的部分原因是用于预训练的
文
本和数据供应减少(预训练有助于 LLM 理解概念之间的关系,从而解决起草内容或调试代码等任务)。
Scaling
Law
AI大模型
大模型
大模型的研究新方向:混合专家模型(MoE)
《【
论
文
解读】:大模型免微调的上下
文
对齐方法》中提到的利用上下
文
学习(ICL),通过采用少量精心策划的风格示例和精心设计的系统提示,对基础LLMs进行有效对齐的URIAL方法;还有一种方法就是对模型大而化之的处理方法
MoE
大模型
<
...
83
84
85
86
87
88
89
90
91
92
...
>
1
2
4
5
6
7
8
9
100