首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 全球生成式 AI 应用全景图
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 2024年值得关注的Agent框架
· 必看!阿里通义千问完整技术报告
· 绝了!新华社、知网官方出品的写作神器,不要太爽!
· Westlake - Omni:西湖心辰推出的全球首个开源的中文情感端 - 端语音交互大模型
· 腾讯 IMA: AI 智能教学新助手
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Midjourney 进阶关键词_摄影效果专题
· ComfyUI 基础教程(一)环境部署和插件安装
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
Prompt全攻略(三):提升Prompt效果的技巧指南
熟
练
掌握Prompt编写技能,是使ChatGPT真正发挥价值,助力用户内容创作的必备要素。
prompt
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
传统上,
训
练
强化学习代理需要大量的样本和长时间的
训
练
,且缺乏泛化能力。
大模型
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
模型于2023年12月完成
训
练
,但由于推理成本过高而取消发布。
OpenAI
大模型
盘古
华为盘古画画3.0发布 | PanGu-Draw:业界最大的中文文生图模型,效果YYDS!
其次,引入了“协同扩散”算法,该算法能够在统一的去噪过
程
中协同使用具有不同潜在空间和预定义分辨率的各种预
训
练
扩散模型。
PanGu-Draw
文生图
数字人
数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
,
训
练
出来的数字人动作表情也会切合使用场景。
数字人
数字分身
开源
OCR是什么以及推荐几款开源中文OCR识别软件
对于cv和深度学习进行一定
程
度的积累和了解,为后续
工
作做一些铺垫。
OCR
Stable Diffusion
Stable Diffusion 30分钟打造AI 写真照片生成器|海马体照相馆这次真的要木得了
训
练
方式非常简单,只需要提供 5 到 20 张肖像图片(最好是半身照片且尽量不要佩戴眼镜),20 分钟左右,Stable diffusion 就可以
训
练
好数字分身。
SD
文生图
写真照
Prompt
11个顶级的Prompts,用GPT学习的天花板
只需简单地使用这11个顶级的AI指令(Prompts),ChatGPT立刻就是你的私人教
练
,教你如何游刃有余地学习新知识,感觉就像揭开武功秘籍的绝招一样震撼。
GPT
心理
万字长文,大语言模型如何宣告心理学的死亡?
研究者指出,这是
训
练
数据的不对齐导致的偏见,因而这成为了一种需要被纠正的技术问题。
大语音模型
大模型
Westlake - Omni:西湖心辰推出的全球首个开源的中文情感端 - 端语音交互大模型
三、Westlake - Omni 的
训
练
与优化 1.
Westlake
-
Omni
语音
生成式AI与大语言模型的区别
通过吸收大量的
训
练
数据,生成式人
工
智能模型可以使用复杂的机器学习算法来理解模式并制定输出。
生成式AI
大语言模型
区别
如何用大语言模型构建一个知识问答系统
从大语言模型(Large Language Model, LLM)[2]角度而言,上面的需求是在两阶段
训
练
模式下,面向下游场景进行适配的问题。
知识库
微信向量检索分析一体化数仓探索:OLAP For Embedding
看一个实际样例: 无记忆交互:LLM 世界知识被压缩为静态参数,模型不会随着交互记住记录和喜好,也无法调用额外的知识信息来辅助判断,因此只能根据历史
训
练
做回答,经常产生幻觉。
OLAP
For
Embedding
一体化数仓
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
介绍 LLaMA 2模型是使用2万亿个tokens和70亿到700亿参数预
训
练
和微调的,使其成为功能强大的开源模型之一。
开源模型
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
但我认为不用担心,整个 AI 基础设施中,除了算力本身在演进外,
训
练
和推理过
程
都在持续优化。
大模型
详解
<
...
36
37
38
39
40
41
42
43
44
45
...
>
1
2
4
5
6
7
8
9
100