首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· PPT又又有新突破了!智谱AI代码流造PPT
· 建议收藏:超详细ChatGPT(GPT 4.0)论文润色指南
· AI必备Prompt技巧《提问的艺术——让AI导出高质量答案》
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Suno音乐新手指南(手把手完整版教程)
· ComfyUI 基础教程(一)环境部署和插件安装
· 如何下载及使用通义千问7B开源大模型
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 大模型训练为什么用A100不用4090
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
浅浅介绍下中文分词,用这些库搞定
你可以根据自己的需求调整词云的参数,以及对分词结果进行处理、过滤等操
作
,以获得更好的词云效果。
Python
分词库
教程
0基础!动手部署Qwen1.5-MoE模型!能力如何?API接入fastgpt等任何应用!喂饭到嘴教程,附模型下载!
多专家协
作
,不是多个非专模型,干搬砖的事!
Qwen1.5-MoE
大模型
下载
TypeChat 入门指南
我们可以为咖啡订单项目定义一个类型,并使用 TypeChat 处理自然语言输入并将其映射到经过验证的 JSON
作
为输出。
TypeChat
大模型
LLM大模型推理输出生成方式总结
参数:temperature(取值范围:0-1)设的越高,生成文本的自由创
作
空间越大;温度越低,生成的文本越偏保守。
大模型
EverydayWechat:让微信变得更强大,引领每日生活新体验
启动机器人: 1 bot.run() 运行上述代码后,每日微信将会提供自动回复、定时发送消息等功能,并根据配置的参数执行相应的操
作
。
EverydayWechat
蚂蚁推出ProChat:快速搭建大语言模型 Chat 对话的前端组件库
gt; ( <ProChat request={async (messages) => { // 使用 Message
作
为参数发送请求
ProChat
大语言模型
LLM
更强的小型LLM:Zephyr-7B
结果 Hugging Face对ZEPHYR-7B的主要评估集中在单轮和多轮聊天基准测试上,这些测试衡量了模型遵循指令的能力以及在不同领域对复杂提示
作
出回应的能力。
Zephyr-7B
大语言模型
RAG
RAG超参数调优食用指南
该函数具体执行以下操
作
: 1.从文档构建索引, 2.查询索引,并运行一些基本计算。
rag
大模型
Nvidia发布Llama3-ChatQA-1.5: 提升对话问答和表格推理能力,平均性能超越GPT-4
作
为一款小尺寸高性能的模型,Llama3-ChatQA-1.5必将成为未来对话式AI应用的重要支撑。
Llama3-ChatQA-1.5
对话问答模型
AI绘画:InstantID Win11本地安装记录!
0.准备工
作
准备一张3090或者4090或者显存24+的N卡。
InstantID
Win11
安装
大模型
实测15款AI大模型实时新闻搜索能力:金融业资讯获取哪家强?
测试方法 · 统一任务:要求AI“在线全网搜索昨天(2025-07-14)金融业相关结果”,返回包含标题、日期、链接、来源、
作
者、摘要的JSON格式数据。
AI
大模型
大规模训练系列之技术挑战
此时,数据并行的
作
用就可以体现了:对于这些深度学习训练来说,直接增大数据并行的计算资源是比较有效的,投入数倍的计算资源基本上能获取到相应的加速倍数。
开源模型
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
它将降低进入应用程序的门槛,使开发者和组织能够快速创建工
作
原型,而无需巨大的工程努力。
大模型
上下文
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
在许多深度学习模型中,尤其是Transformer类模型,层与层之间的操
作
往往需要在vRAM中存储中间计算结果,这些结果可能包括激活值、权重等。
大模型
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
总体思路有点像ReAct[3]系列的进阶版本,其在搜索侧和答案修正侧都做了更多的一些工
作
来优化实际效果。
RAG
大模型
<
...
88
89
90
91
92
93
94
95
96
97
>
1
2
4
5
6
7
8
9
100