首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Fooocus制作从小到老图
· AI写作:如何用AI一键提炼文章要点,10倍提效(含提示词)
· MCP服务介绍及应用场景报告-来自Manus
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
· 大模型量化:什么是模型量化,如何进行模型量化
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
在
AI
领域,更大的参数意味着更好的质量。
SDXL
大模型
大模型在金融行业的应用场景
1.农业银行人工智能研发团队,在同业率先推出类ChatGPT的
AI
大模型应用ChatABC,并在农业银行科技问答场景进行了内部试点。
大模型
金融
应用
大模型
通俗解读大模型微调(Fine Tuning)
正如我在《大模型时代的应用创新范式》一文中所说,大模型会
成
为
AI
时代的一项基础设施。
大模型
微调
Ollama最新更新v0.1.33,实现了多并发可同时与多个模型聊天对话!
· Moondream:专为在边缘设备上高效运行而设计的一款小型
视
觉语言模型。
ollama
语言大模型
聊天
OpenAI
OpenAI的官方Prompt工程指南详解 - 看这一篇真的就够了!
指定所输出长度 可以要求模型
生
成
给定目标长度的输出。
OpenAI
Prompt
提示词
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践(附可运行案例)
· 每条消息由一行或多行字段(event、id、retry、data)组
成
,每个字段组
成
形式为
GPT
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践
· 每条消息由一行或多行字段(event、id、retry、data)组
成
,每个字段组
成
形式为
打字机
sse
大模型
教程
谁杀死了我们的技术教程?网络技术教程越来越少?
思考了片刻,我觉得网络上的技术教程,从作者的角度来说,一是为了彰显技术,人都有好胜心,第一时间表达自己所掌握的技术并写
成
文章进行传播,一定程度增加自己的
成
就感。
技术
技术教程
理解 o3 及其技术分析
应该说顶级数学家评价非常有挑战性的问题,看到GPT4之后他仍然觉得会需要几年时间
AI
才能搞定的问题,现在已经沦陷了1/4。
o3
技术分析
《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
最后《特朗普爱上在白宫当保洁的我》这部剧在美国
成
了一部现象级的短剧,连美国的正规媒体都惊动,下场批评剧情“脱离现实”,但一点都无损于这部剧的热度,反而带来了更多的付费观众。
短剧
ChatGPT
使用ChatGPT6小时写出高分论文
请检
视
我的论文是否逻辑严谨、内容一致,并提出修改建议。
ChatGPT
写作
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
项目地址:https://github.com/lamini-
ai
/lamini 它的优势如下: · 免费,适用于小型 LLM;
大模型
ChatGPT
巧用这13个原则!创作ChatGPT提示词Prompt时效率提高10倍!
把复杂任务拆解
成
一系列简单的提示,以进行交互式对话。
prompt
提示词
微调
LLM微调经验&认知
延申下来,可以理解Llama(原
生
)是一个会听不会讲中文的人,用中文语料做指令微调,实际上更多是教他“说中文”。
LLM
大模型
开源
研究人员开源中文文本嵌入模型,填补中文向量文本检索领域的空白
由于 GPT 使用的 Transformer 模型的自身特性,导致模型只能从固定长度的上下文中
生
成
文本。
GPT
<
...
85
86
87
88
89
90
91
92
93
94
...
>
1
2
4
5
6
7
8
9
100