首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 为你推荐开源项目:Meridian——专属个人情报站!
· GenColor.ai
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 数字人起飞!字节Loopy对口型功能在即梦上线 可根据语境匹配表情和情绪
· 6个最佳开源TTS引擎
· Suno音乐新手指南(手把手完整版教程)
· AI换脸工具:facefusion使用心得
· ChatGLM智谱清言
· MCP服务介绍及应用场景报告-来自Manus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
VividTalk:用一张照片和一段音频让人物栩栩如生地说话
最新的突破来
自
VividTalk项目,这是一个能够将单张照片和一段音频结合起来,创造出仿佛真人在说话的视频的技术。
VividTalk
视频
RAG
无限长的上下文,也干不掉的RAG
概述 本文《Lost in the Middle: How Language Models Use Long Contexts》
由
Nelson F.
RAG
大模型
一网打尽 | 掌握64个策划思维模型,逆转职业寒冬!(高清图+模型详解)
4、逻辑递进:每一组内容必须按照一定逻辑顺序
排
列,如时间、空间、程度顺序等。
策划思维模型
方法论
Prompt
解读提示工程(Prompt Engineering)
用途包括
编
程辅助、
自
动化代码生成等。
Prompt
提示词
阿里
阿里&字节发表VividTalk,只需单张照片即可根据音频生成栩栩如生的人物说话头像视频
对于刚性头部运动,
由
于与音频之间的关系较弱,建模更加困难。
VividTalk
视频
Midjourney
MidjourneyV6高级提示词技巧(人物篇)
与之前的版本相比,这个模板的结构并没有太大变化,但
由
于V6在理解提示词方面的能力提高了,所以增加了一些细节。
Midjourneyv6
文生图
提示词
开源
开源大语言模型完整列表
GPT-J ——
自
然语言处理 AI 模型 GPT-J 是一个基于 GPT-3,
由
60 亿个参数组成的
自
然语言处理 AI 模型。
开源模型
大语言模型
ChatGPT
如何使用ChatGPT写出优质文章
结论部分安
排
:总结主要论点,重申文章的目的和重要性,并提出可能的未来研究方向或行动号召。
ChatGPT
写作
Stable Diffusion
50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
投毒工具
由
芝加哥大学团队打造,名为Nightshade,可以对画中像素添加隐形更改。
StableDiffusion
ChatGLM
手把手教你本地部署清华大学KEG的ChatGLM-6B模型——Windows+6GB显卡版本和CPU版本的本地部署
ChatGLM-6B是清华大学知识工程和数据挖掘小组发布的一个类似ChatGPT的开源对话机器人,
由
于该模型是经过约1T标识符的中英文训练,且大部分都是中文,因此十分适合国内使用。
提示词
prompt
chatgpt
企业
检索增强生成(RAG):LLM企业级应用落地的挑战与思考
还需要处理各数据源的
编
码、标记语言等区别。
大语言模型
RAG检索增强
视频
Prompt | 抖音视频脚本
然后,拍摄一些剪辑或从 https://pixabay.com/videos/ 获取它们并
编
辑您的 TikTok。
prompt
大模型
【大模型微调】 Llama 2 :对话模型的全过程微调
标注人员的任务是
编
写提示,并在基于设定标准的两个模型回答之间进行选择。
大模型
写作
AI 写作:如何把GPT变成你的爆文写作素材库?
很多人写东西时总是无话可说,看别人的文章案例生动,论据扎实,
自
己写起来就一步一个坎,磕磕巴巴。
AI写作
GPT
大模型
从Langchain到ReAct,在大模型时代下全新的应用开发核心
因此对超出训练过程中使用的数据进行逻辑分析时,LLM就会开始不懂装懂地
编
造一些理
由
。
大模型
<
...
15
16
17
18
19
20
21
22
23
24
...
>
1
2
4
5
6
7
8
9
100