首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· GLM-4-Voice 9B——实时多语言语音对话 AI——几分钟内即可在本地安装
· 开发语音产品时设计唤醒词和命令词的技巧
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· GPU 性能(数据表)快速参考
· 关于AI声音生成的一切(语音+音乐+嘴型)
· Westlake - Omni:西湖心辰推出的全球首个开源的中文情感端 - 端语音交互大模型
· 理解 o3 及其技术分析
· Coze、Dify、FastGPT:哪款智能体平台最强?深度对比分析!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
语音
语音识别的未来已来:深入了解faster-whisper的突破性进展
例如,在客户服务中,它可以用于实时语音转
文
字,提高响应速度和服务质量。
语音识别
Faster-Whisper
大模型
中国AI大模型,应该如何商业化
11月18日,OpenAI管理层发
生
巨变,CEO奥特曼被解雇。
大模型
AI
微调
LLM微调经验&认知
延申下来,可以理解Llama(原
生
)是一个会听不会讲中
文
的人,用中
文
语料做指令微调,实际上更多是教他“说中
文
”。
LLM
大模型
Prompt
提高工作效率的 10 个高级Prompt
[insert text] 重写和简化复杂的
文
本“用简单易懂的词重写下面的
文
字。
工作
大模型
GPT
prompt
提示词
ChatGLM
玩一玩ChatGLM3,1660s即可流畅运行!
更完整的功能支持,原
生
支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
大模型
ChatGLM
强!推荐一款自动化神器Autolt:不再重复工作!
例如:AutoIt支持非常丰富的内置函数和库,可以方便地处理窗口、
文
件、注册表等系统资源。
Autolt
自动化
金融
金融行业的AIGC应用
但是在面向个人的应用中,GPT能够应用在智能顾投、量化分析、网页抓取、
文
字摘要、行情复盘等场景能够很快落地,提升投研效率。
金融
大模型
RAG
RAG超参数调优食用指南
在这个设置中定义了一个函数,该函数从一组
文
档(Llama2 论
文
)构造一个基本的 RAG 摄取管道,选择最合适的评估数据集并运行它,最后为运行结果打分。
rag
大模型
RAG
LLMOps框架Dify发布Workflow功能,RAG进入自由编排时代(附产品负责人分享PPT )
工作流编排是目前最好的平衡模型能力以及
生
产需求的妥协办法。
RAG
自由编排
Workflow
大模型
回望做大模型一年后的感悟
开源和闭源的差距比想象中要大 这个观点其实在之前的
文
章中有提到过,有兴趣的可以参考。
大模型
感悟
提示词
提示词框架:BROKE
BROKE框架实践 1.使用GPT+BROKE框架
生
成Prompt Q: 用我下面的提示词方法论,
生
成主题为"如何刻意练习AI"的提示词 BROKE
BROKE
提示词
基于Ollama本地部署Llama3指南!
相关参数 训练数据 参数量 上下
文
长度
LLama3
ollama
企业
快消品企业怎么才能用上大语言模型?
正如我们上
文
所分析的,大语言模型的场景覆盖各行各业的诸多环节,这也让其应用和落地无法一概而论,整体体现为高度的非标准化,“边摸索、边创新、边落地”成为了当下的解决思路。
大模型
开源
AI开源 - LangChain UI 之 Flowise
并完成安装 image 安装完后,打开 Docker image (二)下载代码 打开地址:https://github.com/FlowiseAI/Flowise,并下载代码(解压后为
文
件夹为
大模型
ChatGLM
手把手带你微调一个自己的 ChatGLM2-6B 模型
o o • 更长的上下
文
:基于 FlashAttention 技术,我们将基座模型的上下
文
长度(Context Length)由 ChatGLM
ChatGLM2-6B
<
...
91
92
93
94
95
96
97
98
99
100
>
1
2
4
5
6
7
8
9
100