首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Cursor 0.50 版本:一场惊艳的编程体验升级之旅
· ChatGPT 技巧 | Prompt 逆向工程
· 阿里Qwen3系列模型惊艳亮相
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· Cursor设计主管分享AI写出高质量代码的12个超绝妙招
· 知犀AI
· LangChain 的问题所在
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· 还没有上手Stable Diffusion XL 1.0 的同学,看这篇文章就够了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Fooocus更新了2.3
在高级设置里调试
工
具下面多了几个选项,比较常用的就是设置是否随机通配符。
fooocus
文生图
回归分析:探索变量之间的奥秘
接下来,踏上寻找数据的旅
程
,确保收集到准确可靠的数据。
回归分析
变量
大模型
国外报告90%的AI类产品公司已经实现盈利,而国内大模型和AIGC的访谈说太卷了
在迎来生成式人
工
智能新时代后,其用户数量开始缓慢下降,然而与之相关的AIGC产品却不断涌现,呈现出日益增多的趋势。
大模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
peft的论文《ADAPTIVE BUDGET ALLOCATION FOR PARAMETER- EFFICIENT FINE-TUNING》显
示
的结果:AdaLoRA效果稍好于FT。
大模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
也就是说,我们
提
出了以下一般性观察: · 线性插值/缩放似乎是增加模型上下文长度的最稳健的方法。
开源模型
开源
Stability AI开源上新:3D生成引入视频扩散模型
官方表
示
,基于此,SV3D大大
提
高了3D生成的质量和视图一致性。
sv3d
建模
Stable Diffusion
虚拟拍摄,如何用stable diffusion制作自己的形象照?
# Prompt
工
程
a young man sitting at a table with his arms crossed and smiling at the camera
Stable
Diffusion
文生图
开源
星标破万!小钢炮2.6登顶GitHub,Hugging Face TOP3, 燃爆开源社区!
与 MiniCPM-Llama3-V 2.5 相比,MiniCPM-V 2.6 性能
提
升显著,并引入了多图和视频理解的新功能。
MiniCPM-V
2.6
大模型
数字人
开源!数字人资源大集合!
· 慕尼黑
工
业大学 (TUM)视觉计算机实验室,由Matthias Nießner 教授及其团队设计。
数字人
开源
大模型
重磅来袭!Llama中文社区开源预训练中文版Atom-7B大模型
MNBVC MNBVC 中清洗出来的部分数据集 📚深度优化的高效中文词表 为了
提
高中文文本处理的效率
大模型
SQL
微信为什么使用 SQLite 保存聊天记录?
真值true和false分别由数值1和0表
示
(这一点和C语言一样)。
SQLite
微信
数据库
EasyPhoto | 您的智能 AI 照片生成器
算法详细信息 1.架构概述 在人
工
智能肖像领域,我们希望模型生成的图像逼真且与用户相似,而传统方法会引入不真实的光照(如人脸融合或roop)。
训练
EasyPhoto
文生图
小度为何押注AI眼镜?
李莹表
示
,AI眼镜作为人类的第一视角设备,可以捕捉视觉、声音、位置等多个维度的信息,将重新定义人与世界的互动方式。
AI眼镜
小度
ChatGPT
三个大模型(ChatGPT,文心一言,Baichuan-13B),帮我生成中医《本草纲目》的训练数据
最后试下我们本地的大模型,百川-13B Chat,这里需要说明下,为了本地加载,我做了8-bit量化,可能会影响性能: 出现了一个问题,就是把prompt里的“和”字理解成了“与”的关系,经过进一步
提
示
后
大模型
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
说到底就是一个 map-reduce 的过
程
,当然 langchain 里面也进一步细化,增加了比如 refine 这种机制,思路一致,实现方式略有区别。
大模型
<
...
89
90
91
92
93
94
95
96
97
98
...
>
1
2
4
5
6
7
8
9
100