首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 从零开始了解AI大模型 - 技术篇:万字深度好文人话说大模型技术
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· 如何从零开始训练专属 LoRA 模型?4600字总结送给你!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· GPU 性能(数据表)快速参考
· Stable Diffusion高精度换脸
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
请收好这12种Prompt编写模式,让不可靠的模型生成可交付的可靠结果
5
.
prompt
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
GPT
-3 的发布给了大家非常明确的信号,即大型模型真正具备了实际可用性。
智谱
AI
Stable Diffusion
AI绘画巅峰对决:Stable Diffusion 3与DALL·E 3原理深度比较
DALL-E 3 用Dataset Recaptioning技术,重新生成图像标题,这些训练语料都是由
GPT
-4 Vision生成的。
Stable
Diffusion
DALL·E
人工智能
AI产品经理视角:如何构建人工智能产品
例如,对于内容生成,您可能会发现撰写博客文章 [2] 通常需要 4-
5
小时,现在只需 1-2 小时即可完成,并将节省的时间用于其他任务。
大模型
产品经理
写作
AI写作不如意?万字长文深度剖析背后原因
锯齿边界 在《导航锯齿形技术前沿:AI对知识工作者生产力和质量影响的实地实验证据》一文中,Dell’Acqua等人描述了波士顿咨询集团的顾问如何在工作中使用像
GPT
-4这样的AI工具。
AI写作
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
并处理得到最后一层的输出 四:DecoderLayer类 下面看一下每一层的decoder的结构是什么: 这个结构可以参考经典的tansformer decoder结构,这个也是
GPT
大模型
Sora
微软研究团队:Sora核心技术及未来机会研究报告-中英对照版
与
GPT
-4 等大型语言模型相似,Sora 能够解析文本并理解复杂的用户指令。
sora
论文
ChatGPT
公司如何使用ChatGPT进行内容营销?
两个关键技术支撑着ChatGPT的潜力:
GPT
-3和它的先进性:作为
GPT
-3的后裔,ChatGPT受益于这个人工智能模型在语言理解和生成方面的突破,
GPT
-3类似人类的文本生成能力为ChatGPT
大模型
开源
微软最新模型Phi-3 Mini开源登场!小模型,大未来!
它的小巧之处让它能够轻松地在各种本地设备上部署和运行,甚至可以作为离线聊天机器人使用,而且还能提供与
GPT
-3.5类似的性能水平。
Phi-3
Mini
开源模型
微软
揭秘DeepSeek:一个更极致的中国技术理想主义故事
在被AI连续轰炸的
5
月,DeepSeek一跃成名。
DeepSeek
大模型
大模型
阿里云开源通义千问多模态大模型Qwen-VL,持续推动中国大模型生态建设
为了测试模型的多模态对话能力,通义千问团队构建了一套基于
GPT
-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM
大模型
LLM
LLM native策略的内部状态是否应该结构化 【2023Q3】
5
.
大模型
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
Anthropic 的 Claude 3 支持最多 20万token,而 OpenAI 的
GPT
-4 的上下文窗口为 12.8万个token,直到Gemini 1.5达到百万token。
大模型
上下文
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的
GPT
-4时,拟合块可能不是问题。
RAG
大模型
大模型
垂直领域大模型的一些思考及开源模型汇总
LAW-
GPT
Github: https://github.com/LiuHC0428/LAW-
GPT
简介:中文法律大模型(獬豸) 数据:现有的法律问答数据集和基于法条和真实案例指导的
垂直领域
大模型
开源模型
汇总
<
...
26
27
28
29
30
31
32
33
34
35
...
>
1
2
4
5
6
7
8
9
100