首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 汇总1400+文献的神级“上下文工程”综述,治愈初学者的AI迷失症
· 《特朗普爱上在白宫当保洁的我》拍好了,3个月赚了10个亿
· StableDiffusion模型推荐系列(全能型)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 一个让GPT重复自问自答的Prompt
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 一个完整Prompt让ChatGPT自动生成短视频制作脚本
· 来个优秀的开源人脸识别项目!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
爬虫
主流网络爬虫蜘蛛详解
用户在内置于 Windows 操作系统的搜索栏,或 Edge 默认搜索引擎均可直达必应的网页、图片、视频、
词
典、翻译、资讯、地图等全球信息搜索服务。
爬虫蜘蛛
详解
微调
一文讲明白什么是预训练、微调和上下文学习
Masked Language Modeling:模型经过训练以预测句子中缺失或屏蔽的单
词
,学习上下文
关
系并捕获语言模式。
大模型
训练
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
查询数据:使用嵌入在向量存储中搜索存储的相
关
信息。
开源模型
一文搞懂贝叶斯定理有什么用
以吴军老师在中文分
词
领域举的一个例子来说,对于一个句子:南京市长江大桥,可以有两种划分: 南京市 / 长江大桥 南京市长 / 江大桥 到底哪一种更合理
贝叶斯定理
换脸
AI换脸:FaceFusion 3.5.0更新,解决老版本无法使用问题!
; · 实验性 5 到 68 个
关
键
点识别
FaceFusion
文生图
大模型
面向知识图谱的大模型应用
一般地,分析查询以确定作为矢量搜索起点的
关
键
实体。
知识图谱
大模型
大模型
中文通用大模型评测基准发布,全方位解析评价维度,助你选出最优秀的模型!
自动化测评(一
键
测评): 通过自动化测评方式以相对客观形式测试不同模型的效果,可以一
键
对大模型进行测评。
大模型
训练
中文
深度解读|做出海必看的一份产品报告
o o 1.发现:精细化产品呈现+渠道思考是核心,虽然有机流量占比下滑7%,但仍是产品驱动企业的
关
键
;
工作
RAG
无限长的上下文,也干不掉的RAG
论文主要探讨了当前语言模型在处理长文本上下文时的性能表现,特别是在多文档问答和
键
值检索任务中,模型如何利用输入上下文中的信息。
RAG
大模型
XX来信: 智能体设计模式2:Reflection
我们可能都有过这样的经历:提示ChatGPT/Claude/Gemini,得到不满意的输出,提供
关
键
反馈以帮助LLM改进其响应,然后获得更好的响应。
Reflection
智能体
Stable Diffusion
【Stable Diffusion】SD迎来动画革命,AnimateDiff快速出图
接下来,我们选择模型,并输入提示
词
,我描述的是“一只在草原上奔跑的白马”。
文生图
开源模型
ComfyUI
教会AI画汉字(ComfyUI篇)
最近,央视公开了一些由ai生成的图片与视频,其中有几张图片非常有趣,成功吸引到了我, 那便是这几张由ai与文字相结合的图片,这种奇妙的效果令我十分好奇,于是我便开始找寻相
关
的插件来达成类似的效果
comfyui
文生图
工具
鹅厂最新AI工具刷屏!杨幂寡姐多风格写真秒秒钟生成,LeCun点赞 | 可免费体验
其次,输入文字提示,确保在要定制的类别
词
后面加上触发
词
:img。
PhotoMaker
图生图
开源
国内外开源大语言模型一览表
通过这些努力,确定了使得 PPO 算法在大模型人类对齐方面行之有效的
关
键
因素。
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
关
于tokenizer,LLaMA的训练语料以英文为主,使用了Sentence Piece作为tokenizer,
词
表大小只有32000。
大模型
微调
训练
<
...
52
53
54
55
56
57
58
59
60
61
...
>
1
2
4
5
6
7
8
9
100