首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
“实时”语音翻译!AI语音具有“情绪”!最强开源AI大模型来了
请把音
量
调小。
大模型
开源模型
语音
Stable Diffusion
Stable Diffusion 又是一个史诗级增强、出图效率暴增 5 倍
它的特点是可以通过少
量
步骤推理合成高分辨率图像,使图像生成速度提升 2-5 倍,需要的算力也更少。
StableDiffusion
文生图
史上最好的中文大预言模型出现了!!!
不是专业人士,仅从用户界面,问答质
量
以及一些乐子的角度给大家说说这几个大语言模型。
Kimi
Chat
大模型
Stable Diffusion
Stable Diffusion高级教程 - 图生图(img2img)模式
2.Sampling Method 用于去噪,平衡生成图的速度和质
量
。
Stable
Diffusion
图生图
Agent
Agent四大范式 | 综述:全面理解Agent工作原理
§ 近几年,大语言模型的兴起因此了智能体应用这个领域的巨大
变
化。
Agent
大语言模型
数字人
AI虚拟主播数字人技术实现Wav2Lip
目标面孔被交换和合并,通常在第一眼看来是无缝的,以创建一个改
变
的事件。
数字人
视频
大模型
大模型中的Top-k、Top-p、Temperature详细含义及解释
当您不断选择最高建议的单词时,它可能会
变
成重复的句子。
大模型
VividTalk:用一张照片和一段音频让人物栩栩如生地说话
这个技术不仅有望改
变
数字媒体的生产方式,也为虚拟现实和人工智能的应用开辟了新的道路。
VividTalk
视频
将文本转化为3D动画:DeepMotion推出MotionGPT,开启动画新时代!
“通过利用生成式人工智能,我们正在开启运动生成的可访问性和效率的新时代,使任何人都可以利用文本输入来创建引人入胜的 3D 动画,为所有类型的创作者提供支持,并彻底改
变
游戏开发、元宇宙、体育等行业。”
3D
动作捕捉
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
基本介绍 Gemma 是由 Google 推出的一系列轻
量
级、最先进的开放模型。
ollama
gemma
qwen
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
并且其自研的Baichuan-Text-Embedding向
量
模型也登顶了C-MTEB语义向
量
评测标准。
RAG
大模型
ChatGPT
Prompt逆向工程:ChatGPT通过多角色对抗生成完美提示词
2.改写/同义词替换检测:有时抄袭者会改写原文,使用同义词替换原来的词汇,或改
变
语序。
Prompt
ChatGPT
Sora
中学生也能看懂的Sora视频生成原理解读
在这个过程中,Sora利用了大
量
的视频和图片数据学习到的知识,来决定如何逐步去除噪声,将噪声视频转
变
成接近文本描述的内容。
视频生成
sora
Prompt
Learn Prompting-基础篇
随着技术的不断发展,人工智能可能彻底改
变
我们生活的许多方面,人工智能也正
变
得越来越重要。
prompt
大模型
详解大模型RLHF过程(配代码解读)
在游戏场景,每个step给环境一个action之后,agent拿到的state都是会
变
化的,通常也会设计奖励函数使得每个step都会有reward;但是在用强化学习微调语言模型这里,prompt是state
训练
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100