首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· MCP服务介绍及应用场景报告-来自Manus
· 为你推荐开源项目:Meridian——专属个人情报站!
· 【万字长文-进阶教程】一文带你从入门到精通ChatTTS, 手把手教你固定音色、设置语速、添加停顿词、口头语、笑声!!
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· AI换脸工具:facefusion使用心得
· ChatGLM智谱清言
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
AIGC大模型,潮水褪去之后
对小厂来说部署成本太低了,一旦一个团队能理解大模型的能力和知道怎么做好数据库,这个事儿找几个不错的后端工程师自己就搞了,然后在周
报
上写上:“完成了大模型的本地部署,为公司节省了X万每年。”
大模型
Stable Diffusion
耗时80小时!超详细的胎教级Stable Diffusion使用教程,看这一篇就够!
SD的主界面会自动在网页上弹出来 如果在上面的页面出现了
报
错 可以回到最开始的界面 在左边点击“疑难解答”,再点击右边的“开始扫描” 最后点击“修复”按钮 下面这个页面就是
文生图
ChatGPT
ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出
CMU博士击破LLM护栏,人类毁灭计划脱口而出 新智元
报
道 【新智元导读】一夜之间,ChatGPT
开源模型
大模型
总结!大模型微调(Tuning)的常见方法
手动尝试最优的提示无异于大
海
捞针,于是便有了自动离散提示搜索的方法,但提示是离散的,神经网络是连续的,所以寻找的最优提示可能是次优的。
微调
大模型
大模型
中国电信开源星辰AI大模型:央企中首个完成LLM研发和开源的选手诞生
、广告营销等; § § 启明网络大模型,专攻网络运营,侧重云网运营领域专业知识查询; § § 星辰经分大模型,主攻数据分析和
报
告生成
开源大模型
电信
大模型
关于大模型驱动的AI智能体Agent的一些思考
反思能力(Action) 基于评估结果重新规划: Agent要能在产出物符合目标时及时结束任务;同时,进行归因分析总结导致成果的主要因素(生成BI
报
表),另外,Agent要能在发生异常或产出物不符合目标时给出应对措施
大模型
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
5.29号有机会和部门的一些同事一起到上
海
微软进行了参观访问,微软给我们从内部产品升级到针对企业级的ChatGPT,全方位进行了解读,很震撼。
大模型
Agent
谈Agent构建平台的设计
我目前看到的Agent构建云平台产品在这方面做的稍好的只有: · Mircosoft的Copilot Studio · 字节面向
海
外的Coze.com ,但其能支持的策略能力仍然偏差
Agent
构建
人工智能
准备迎接超级人工智能系统,OpenAI宣布RLHF即将终结!超级对齐技术将接任RLHF,保证超级人工智能系统遵循人类的意志
在此前Microsoft Build 2023上,来自OpenAI的研究员分享了ChatGPT是如何被训练出来的,那次汇
报
他回答了为什么大模型在做了有监督微调之后还要做RLHF,这不单单是一个价值对齐的训练
OpenAI
人工智能
微调
微调大型语言模型-核心思想和方法介绍
3) Finetuning II – 更新所有图层 虽然原始的 BERT 论文(Devlin 等人)
报
告说,仅微调输出层可以产生与微调所有层相当的建模性能,但由于涉及更多参数,因此成本要高得多。
大模型
训练
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
chatglm2-6b LLM_MODEL = "chatglm2-6b" 项目启动 Web 模式启动 python webui.py 如果
报
了这个错
知识库
OCR
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
传统大模型只能处理 448×448 像素固定的小图,对于包含
海
量信息的更精细图片识别则力有不逮。
MiniCPM
大模型
史上最好的中文大预言模型出现了!!!
所以提取关键词(不知道提取的啥关键词),搜索(不知道用的什么搜索的,显然不是常用搜索引擎的排序,因为排名第一的是知乎,也不是维基百科的总结,维基百科有13条示例),筛选(也不知道用什么标准筛选来源,但是所选的
报
道都是比较可信的来源
Kimi
Chat
大模型
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
PPL以4K上下文大小计算,C-Eval汇
报
的是valid集合上zero-shot和5-shot结果。
大模型
Sora
Sora物理悖谬的几何解释
如图4所示,假设我们计算从圆盘内部的均匀分布到右侧
海
马形状区域内的均匀分布的最优传输映射,根据相应的Brenier定理,最优传输映射由某个凸势能函数的梯度映射给出。
Sora
解释
<
...
31
32
33
34
35
36
37
38
39
40
>
1
2
4
5
6
7
8
9
100