首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 剪映专业版智能补帧
· Suno音乐新手指南(手把手完整版教程)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· AI声音克隆 | 最全最简教程(权威版)
· 微信中和 AI 进行对话
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· RPA机器人实现网页自动翻页功能
· AI创作 |如何通过GPT进行漫画视频的故事改写
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· 20个常见AI绘画工具大汇总(含免费版哦~)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
更强的小型LLM:Zephyr-7B
ZEPHYR-7B 是新一代大型语言模型(LLMs)之一,它受到了
AI
社区的极大欢迎。
Zephyr-7B
大语言模型
大模型
分析过688篇大模型论文,这篇论文综述了LLM的当前挑战和应用
图 9:检
索
增强型 GPT-4 示例,这是幻觉问题的一种潜在解决方法,访问日期:02/06/2023。
开源模型
大模型
EduChat:教育行业垂直领域大模型
解决第二个挑战: 本文探
索
了一种检
索
增强技术,使LLMs能够自动判断检
索
信息的有用性,并根据LLMs中存储的相关信息和知识生成响应。
教育
大模型
垂直领域
Stable Diffusion
Stable Diffusion 年龄转换神器,一键变大变小
在使用
AI
绘画时人物的年龄控制是个难题。
Stable
Diffusion
文生图
Prompt
一文汇总Prompt提示工程的相关策略技巧
这是我们与模型沟通的桥梁,是我们与这个
AI
实体互动的途径。
提示词
框架
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
常规的注意力机制,是把注意力计算中所有的键值(KV)和查询状态丢弃;而经过改进的注意力机制,将注意力的旧KV状态存储在压缩内存中,用于长期记忆中的巩固和检
索
。
大模型
上下文
大模型
大模型训练工程那些事
OpenAI 使用小模型拟合的幂率规律准确预测了 GPT4 最终的训练 loss
AI
模型流程与评估 在大模型相关原理的指导下,
AI
模型的构建也逐渐演化出了不同的阶段和流程。
训练工程
大模型
Stable Diffusion
免配置、免翻墙,Stable Diffusion平替来了!
LeonardoAI是一个稳定的在线平台,不仅免费,还是一款可视化编辑工具,操作界面对用户非常友好,在实际图像质量方面也处于目前
AI
工具的前沿。
LeonardoAI
文生图
ChatGPT
5 种策略控制 ChatGPT 的输出长度
自从人类有了
AI
之后,文本创作的效率大幅上升,带来的问题就是,我们不得不花更多时间去消化信息。
写作
大模型聊天
ChatGPT
开源
有道开源的国产语音库EmotiVoice爆火了!具有情绪控制功能的语音合成引擎!
但是近期,网易有道
AI
算法团队也开源了一款国产TTS语音合成引擎EmotiVoice,刚上线仅一周时间就暴涨4200颗星,问鼎当周GitHub trending流行榜第一。
EmotiVoice
语音库
大模型
CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解
有人表示,自己在设计
AI
系统时正在考虑修改提示结构。
大模型
大模型
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
创建更安全的
AI
应用程序提供指导和必备工具。
开源模型
Gemma
AIGC
AIGC的7个黑暗面
每个CIO和CEO都有一张或三张幻灯片,准备讨论
AI
将如何改变他们的业务。
大模型
大模型
一个产品经理的大模型观察、反思与预测
、内容/工具/社区、国内/出海 0-1/1-100、MVP/PMF/GTM/UG/商业化 为什么复合视角对这轮
AI
浪潮很重要?
工作
如何使用 Megatron-LM 训练语言模型
它还将数据拆分为带有
索
引的编号序列,并将
索
引存储,因此 tokenize 只需要计算一次。
开源模型
<
...
60
61
62
63
64
65
66
67
68
69
...
>
1
2
4
5
6
7
8
9
100