首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· AI异常值案例库第2期,5个灵感案例,新型流量获客法和产品形态
· Fooocus制作从小到老图
· 【CLIP系列Paper解读】CLIP: Learning Transferable Visual Models From Natural Language Supervision
· 这个数字人开源项目太牛了,非常全面的项目解决方案(含源码)
· 最强国产开源多模态大模型MiniCPM-V:可识别图片、视频,还可在端侧部署
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· Stable Diffusion | 常见问题清点汇总
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
在前面的大多数问题中,我们通过添
加
一个正常的先验胜率来纠正不符合直觉的后验结果。
贝叶斯定理
Midjourney
掌握 Midjourney 提示词技巧成为 25 个流派的摄影大师
或者一些跟摄影有关的词,比如添
加
一个我之前文章里(把各种相机
加
入 Midjourney 指令,效果惊呆了我!)
文生图
摄影
提示词
RAG
RAG 2.0,终于把RAG做对了!
真正的问题仍未得到解答 尽管由于其设计专门针对不愿与大型语言模型(LLM)提供商共享机
密
数据的公司,RAG 2.0可能很快就会成为企业标准,但有理由相信,无论哪个版本,RAG最终可能根本不再被需要。
RAG
大语言模型
RAG
RAG检索增强技术在知识库智能检索场景下的应用实践
这种方法尤其适合于知识
密
集型的任务,能够更高效地利用已有的知识库来生成回答或文本。
知识库
RAG检索增强
第一性原理以及第一性原理是怎么帮马斯克成为首富的
它塑造了马斯克独特的商业哲学,也是他引领多家企业取得成功的秘
密
武器。
马斯克
商业
MCP服务介绍及应用场景报告-来自Manus
例如,MCP服务器自己控制资源,不需要将API
密
钥等敏感信息提供给LLM提供商。
MCP
大模型
数字人
数字人直播哪家强?中国数字人平台分析大全
数字人技术的高度定制化和个性化特点,使得数字人在直播和短视频中能够根据不同需求展现不同形象和风格,与观众建立更紧
密
的互动联系。
数字分身
数字人
被高估的Pika,被低估的多模态AI
这些都
加
起来,可以说 Pika 的爆火是在发展过程中,讲了一个技术、商业、资本、用户都感兴趣的故事,而且赶上了一个好的时机。
大模型
多模态
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
这也直接影响到我们选择分组内容的方式,以便在嵌入查询和嵌入文本块之间有更紧
密
的相关性。
RAG
大模型
大模型
推荐智能体:利用大模型进行交互式推荐
我们为当前的候选商品分配一个单独的内存来存储,无需将它们追
加
到提示输入中。
大语言模型
推荐
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
查看服务器配置 购买完成后收件箱会收到站内消息,包含机器配置和
密
码,进入服务器后输入命令,可以看到系统中安装的 NVIDIA 显卡的实时信息和状态。
ChatGLM2-6B
大模型
大模型:泛化即智能,压缩即一切!
然而,传统的泛化观点认为,随着模型复杂性的增
加
,最初的经验风险和泛化风险都会降低。
泛化
大模型
了解Kimi必看的26个问题 | Kimi系列文(二)
长文本,普通用户只能30条/3小时,可以做任务(添
加
月之暗面客服,将小程序分享给3位朋友,然后截图给客服)申请80条/小时。
Kimi
大语言模型
人工智能
人工智能大语言模型微调技术:SFT 、LoRA 、Freeze 监督微调方法
源模型的输出层与源数据集的标签紧
密
相关,因此在目标模型中不予采用。
大模型
微调
LLM
个人从零预训练1B LLM心路历程
项目初期,我还打算做一件个人认为还比较有意思的事情:因为开源的LLM往往不会包含特别小众、个性化的知识内容,因此计划持续收集围观读者们的数据并训练到模型中,各种亚文化、冷知识、歌词、小众读物、个人的一些小秘
密
等等啥都行
LLM
训练
<
...
26
27
28
29
30
31
32
33
34
35
...
>
1
2
4
5
6
7
8
9
100