首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· ComfyUI-基础图生图&基础图片缩放
· 数字人直播哪家强?中国数字人平台分析大全
· AI创作 |如何通过GPT进行漫画视频的故事改写
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 把ChatGPT装进二次元手办,你来吗?AI桌面机器人众筹
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
AI开源 - LangChain UI 之 Flowise
添加 Text Splitters 下的 Recursive Character Text Splitter 组件 该组件用于当 Cvs File 文件过大时进行分割 image (3)添加数据
向
量
化组件
大模型
什么是极限、导数、微分与积分(通俗易懂)
你的目光时而注视前方的道路,时而瞥
向
仪表盘上跳动的速度指针。
数学
微积分
科学
大模型
人话聊AI大模型:AIGC如何助力营销的秘密(下)
营销创作人员可以在AIGC生成的版本基础上进行进一步优化和完善,从而减少了日常内容创作所需的时间,使得营销团队能够创作更多高质
量
的营销内容,满足更多营销需求。
大模型
Prompt
prompt提示工程最佳实践课程笔记分享
· 样本数
量
:指的是在指令中给出的示例数(“样本”)。
prompt
提示词
Stable Diffusion
50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
此外,研究人员用Stable Diffusion测试毒效,只需50张毒图,就能让模型输出变得奇怪;数
量
达到300张时,生成的图像已经完全变成了另一个物种。
StableDiffusion
RAG
一文看懂RAG:大语言模型落地应用的未来
下面这篇文本就是对RAG的技术原理、历史发展、应用方法、应用场景和未来的发展方
向
的完整解读。
rag
检索增强
斯坦福宣布前端开发要失业了?!一张截图生成代码,64%优于原网页!
最终,获得了484个高质
量
、具有挑战性和多样性的测试例子作为我们的基准测试。
设计转代码
大模型
ComfyUI
ComfyUI上使用SDXL1.0官方工作流实操使用 零基础讲解节点式生成的Ai绘画工具comfyui,节点模块讲解
inpaunt工作流 并且comfyui轻
量
化的特点,使用SDXL模型还能有着更低的显存要求和更快的加载速度,最低支持4G显存的显卡使用。
文生图
写作
AI写作不如意?万字长文深度剖析背后原因
对于AI能力范围内的任务,使用工具的顾问在生产力、速度和质
量
上都有了显著提升。
AI写作
AIGC
AIGC沸腾200多天后,投资人达成三大共识
希望以此对行业发展有所正
向
推动和价值贡献。
大模型
LLM
Byzer-LLM 快速体验智谱 GLM-4
saas.model":"embedding-2" }) 然后可以这样得到
向
量
Byzer-LLM
GLM-4
人工智能
人工智能训练的灾难性遗忘以及解决方案
不凑巧的是,深度学习在结构与参数两方面都植入了灾难性遗忘的基因: 神经网络是通过反
向
传播算法来更新模型参数,通过最小化损失函数来拟合训练数据。
人工智能
大模型
阿里
[论文] 阿里提出AgentScope:灵活强大的智能体框架
通过实施面
向
过程的消息交换机制,AgentScope 确保了平滑的学习曲线。
AgentScope
语言大模型
智能体
开源
国内开源的低代码框架有哪些?
Amis Amis 是一个低代码前端框架,它通过JSON 配置来生成各式各样的后台页面,可以减少页面开发工作
量
,在极大减少开发成本的同时,项目的开发效率也得到了极大的提升,甚至无须了解任何前端相关知识就能完成
大模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
比如典型的Langchain-ChatGLM的架构图,加载文件 -> 读取文本 -> 文本分割 -> 文本
向
量
化 -> 问句
向
量
化 -> 在文本
向
量
中匹配出与问句
向
量
最相似的
LangChain
知识库
<
...
39
40
41
42
43
44
45
46
47
48
...
>
1
2
4
5
6
7
8
9
100