首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· ComfyUI 基础教程(一)环境部署和插件安装
· ComfyUI安装及生成第一张图
· AA大佬新作:ComfyUI整合包,打造极简解决方案
· 换脸软件 FaceFusion 保姆级教程
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 史上最好的中文大预言模型出现了!!!
· SDXL模型lora训练参数详细设置,显存占用22G,不用修脸原图直出
· 详解Stable Diffusion提示词prompt语法
· AI领域的agent是什么意思?
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
应用编排的未来是Pipeline,LlamaIndex开发预览版推出Query Pipeline,提升应用开发的灵活性
传统做法是固化召回,粗排,精排等环节,形成标准的推荐系统处理流程,虽然有利于行业内交流沟通,但这样的方式,在实际生产环境
下
往往难以快速应对差异化的需求且人为导致模块的割裂及维护的困难,而笔者曾开源了一个
Query
Pipeline
大模型
大模型
如何估计大模型所需要的显存大小?HuggingFace发布Model Memory Calculator,一键计算大模型显存需求
可以看到,该工具估算的ChatGLM-6B模型在不同精度
下
的训练和推理的显存需求结果如
下
:
上
图的第三列
上
图的第三列表示推理显存乘以1.2的结果。
大模型
大模型
大模型实践总结
下
面是Chinese-LLaMA-Alpaca针对中
文
Alpaca-13B、中
文
Alpaca-Plus-7B、中
文
Alpaca-Plus-13B的效果对比: image.png 其中,Plus
大模型
训练
李彦宏偏爱小模型|AI光年
百度基于
文
心大模型开发了智能代码助手Comate,百度每天新增的代码中,已经有27%的代码由Comate自动生成的。
李彦宏
小模型
教程
郭德纲讲英语相声详细教程
heygen官网 heygen登录地址:https://www.heygen.com 点击“Sign in”,出现登录界面后切换到Sign Up,按照指引注册完成之后,就可以开始生成视频了
上
传需要翻译的视频
数字人
音视频
深入浅出:大语言模型中必不可少的技术——Embedding简介
例如,BERT、ELMo和GPT等大型语言模型可以生成
上
下
文
相关的embedding表示,这些embedding可以更好地捕捉单词的语义和
上
下
文
信息。
embedding
换脸
WebUI使用用InstantID,AI换脸完美版
从路线
上
看,主要有两条路线,一是一张图换脸,优点是操作简便,缺点是换个姿势的时候,往往不太像,roop等插件是基于这个思路;二是炼制专属LoRA,用目标的5-20张甚至更多脸部照片,训练一个LoRA,从而生成满意的换脸画面
换脸
小红书
大模型
最透彻的大模型PPO原理和源码解读
它决定了我们在多大程度
上
考虑将“未来收益”纳入“当
下
收益”。
PPO
大模型
源码解读
ChatGPT
什么是ChatGPT?
之所以结果的 2 是对的,仅仅因为它读了太多的
文
字资料以后,隐约感觉到 7 结尾的
文
字,乘号,6 结尾的
文
字,和 2 结尾的
文
字比较「押韵」 从语感
上
比较像一首诗,所以它就学会了这样的
文
字
ChatGPT
OpenAI
大模型
Prompt
Prompt工程入门
- Context(选填):背景信息,或者说是
上
下
文
信息,这可以引导模型做出更好的反应。
prompt
提示词
视频
字节跳动推出MagicVideo-V2:引领AI视频生成新时代。
你是否曾想过,仅凭一段
文
字就能生成一段高清、流畅的视频?
MagicVideo-V2
视频生成
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
它有三种不同的模型大小(即7B、13B和70B),与Llama 1模型相比有显著改进,包括在40%更多的tokens
上
进行训练,具有更长的
上
下
文
长度(4k tokens ��
开源模型
cursor+coze智能体,一行代码没写,我撸了个小程序
我们首先要安装cursor软件,安装和注册地址基本
上
按照官方操作即可。
cursor+coze
智能体
微软
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
凭借着2.7B的参数,「小语言模型(SLM)」Phi-2几乎打穿了所有13B以
下
的大模型——包括谷歌最新发布的Gemini Nano 2。
小语言模型
LLM
国内LLM陆续启动,你的Prompt库有这些模块吗
同时,要想让生成式AI发挥最大的作用,除了必要的专业知识,你还需要积累
下
面的这些模块。
prompt
<
...
56
57
58
59
60
61
62
63
64
65
...
>
1
2
4
5
6
7
8
9
100