首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 变天了,AI可以一键生成中文海报了......
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· Stable Diffusion 30种采样器全解
· Dify:大模型创业开源工具,46,558 行代码,完全开源
· Bylo.ai
· LLM Agent最常见的九种设计模式(图解+代码)
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
1
比
较似然 先来看贝叶斯因子,现在假定两个假设的先验胜率相等。
贝叶斯定理
CodeGeeX2来了!效果超LLaMA2-70B
,CodeGeeX2-6B 进一步经过了 600B 代码数据预训练,相
比
上一代,能力有全面提升, 不同于一代,CodeGeeX2是基于ChatGLM2架构加入代码预训练实现,在代码能力上全面提升,
CodeGeeX2
开源模型
Prompt
一文汇总Prompt提示工程的相关策略技巧
二、关于链式思考CoT 1、深思熟虑,给时间思考,一步步思考 2、将复杂任务拆分成简单任务,从简单到复杂模块化解决 3、先列出来所有方法,这样增加解决方案空间,再做方法
对
比
,最后选择合适的
提示词
框架
懒人福音!用AI生成会议纪要,让你的工作更高效!
**准确性**:AI技术能够精确地记录会议中的
对
话,减少人为错误,确保纪要的准确性。
会议纪要
AI工具
用AI为古诗词生成插画
2、下载和准备大模型 SDXL的大模型
对
自然语言理解
比
较好,因此推荐使用SDXL的大模型。
Stable
Diffusion
文生图
提示词
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
nbsp; 它的优势如下: · 免费,适用于小型 LLM; · 迅速,10-15 分钟; · 很大,无限大小的 prompt,
比
最大的
大模型
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
比
如图中,梯度要先传播到X,然后才能往下一层继续传递。
开源模型
开源
Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来
并且推出即为开源SOTA: Meta官方数据显示,Llama 3 8B和70B版本在各自参数规模上超越一众
对
手。
meta
llama3
Sora
解读OpenAI Sora文生视频技术原理
对
比
看两者大的技术方向均选择了扩散模型,却也有许多关键细节不同。
sora
Stable Diffusion
Stable Diffusion的模型分类以及使用
模型存放的文件夹是可以添加子文件夹的,并且支持中文,因此你可以根据自己的需求将模型进行分类存放: 其次你在C站或者其他网站下载模型的时候,建议最好把该模型的效果图也下载一张下来,和
对
应的模型放在一起并且重命名为相同的名字
文生图
Sora
OpenAI视频模型Sora的推理生成成本多高?
一个可供
对
比
的数据量是: 每分钟上传至 YouTube 的视频是 500h 的量级。
Sora
推理
算力
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
现在主流的外挂的数据库是向量数据库,因为实现起来
比
较简单,更复杂的也可以是图数据库、关系型数据库等。
大模型
开源
腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。
比
如:两个女人面
对
面哭泣。
sora
视频生成
SDXL
第3期 SDXL和SD的10大区别!你知道几个?
SDXL 基础模型所使用的 Unet 包含了2.6B(26亿)的参数,
对
比
SD1.5的 860M(8600万),相差超过三倍。
文生图
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
它有三种不同的模型大小(即7B、13B和70B),与Llama 1模型相
比
有显著改进,包括在40%更多的tokens上进行训练,具有更长的上下文长度(4k tokens ��
开源模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100