首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 郭德纲讲英语相声详细教程
· 金融行业的开源AI大模型
· Prompt屠龙术-思维链
· AI助手App“腾讯元宝”已上线应用商店
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· 划重点!全网最全AI数字人工具合集!
· Stable Diffusion生成美女正向词和反向词示例
· 「长文」可能是目前最全的LangChain AI资源库之一
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
又快又好,秒级出图的AI大模型
中尽情
分
享我们的艺术作品!
Stable
Diffusion
文生图
大模型
ChatGPT
挑战全网,字节跳动coze平台让你免费创建ChatGPT4的机器人,不仅能免费使用DallE3,还能免费导入自己的知识库
创建成功后,选择Add Unit,你可以增加自己的文章进去,对话框第一个
分
页可以直接导入本地文件,网络url或者自己写文本放进来。
Coze
聊天机器人
小度为何押注AI眼镜?
从官方发布的参数上看,这款小度AI眼镜配备了1600万像素广角摄像头,重量只有45克,续航却长达56小时,可连续听歌5小时以上,一次充电仅需30
分
钟。
AI眼镜
小度
详解 Diffusion (扩散) 模型
其基本思想是通过迭代前向扩散过程系统地、缓慢地破坏数据
分
布中的结构。
Diffusion
开源模型
AIGC
《构建个人知识图谱》:让 AIGC 帮你自动构建知识图谱
它将构成应用程序的容器
分
组成逻辑单元,以便于管理和发现。
提示词
文生图
AIGC
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
比如:动态神经网络、强大的GPU加速、
分
布式训练、模型压缩和量化、还支持移动端部署,每一个流行的技术框架都离不开强大的社区支持,PyTorch也不列外。
开源模型
金融
MCI-GRU:在真实金融交易中验证有效的股票价格预测模型
注意力机制的引入进一步增强了GNN在不同节点之间
分
配注意力权重的能力,使其能够更加灵活地建模股票之间的动态关系。
MCI-GRU
股票
大模型
数字人
划重点!全网最全AI数字人工具合集!
今天,小编就来给大家
分
享五款AI数字人吧!
AI
数字人
RAG
RAG模型的主要痛点和解决方案
- 使用
分
类器API和外部安全服务实现模块化内容控制。
rag
大模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
#04 你必须根据我的问答对示例格式来生成: """ {"content": "基金
分
类有哪些", "summary": "根据不同标准,可以将证券投资基金 划
分
为不同的种类:(1)根据基金单位是否可增加或赎回
LangChain
知识库
大模型
LLM大模型推理输出生成方式总结
(no_repeat_ngram_size=6即代表:6-gram不出现2次) 限制采样Trick Temperature 方式:通过温度,控制每个字的概率
分
布曲线。
大模型
教程
用so-vits-svc-4.1进行音色转换的极简教程
但是无论转换哪种声音,都需要至少采集30
分
钟-1小时的语音干声,这对于普通讲话很好采集,只需要到一个安静的场所,比如录音棚,录制一段语音即可。
声音
sovits
国风真的太绝啦!被10万人围观的咒语快收下!
今天一口气给大家
分
享3组不同类型的国风插画,大家赶快学起来吧!
文生图
古风
再也不怕合照缺人,Anydoor为图片编辑开了一道「任意门」
让哆啦 A 梦从背着手换成向你打招呼的姿势,
分
分
钟搞定,还保留了原本的毛毡材质质感。
Anydoor
文生图
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:有如下几个原因: 只更新了部
分
参数:比如LoRA原论文就选择只更新Self Attention的参数,实际使用时我们还可以选择只更新部
分
层的参数; 减少了通信时间:由于更新的参数量变少了,所以(
大模型
<
...
59
60
61
62
63
64
65
66
67
68
...
>
1
2
4
5
6
7
8
9
100