首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Stable Diffusion 加速/优化/升级 优化出图速度
· 向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
· 13个神级Chatgpt指令,助你小说丝滑过审
· GPU 性能(数据表)快速参考
· 深度对比丨探索LLM(大模型)部署服务的七大框架差异
· 大语言模型微调:定制自己的微调数据集
· Roop参数说明,ROOP->StyleGAN演示!
· 万字长文,大语言模型如何宣告心理学的死亡?
· 长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
· 如何拥有你的卡通形象?ComfyUI-workflow
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
使用思维链写Prompt
使用思维链构思文章
标
题 下面这个Prompt提出了如何构思文章
标
题的思维过程: Now we will generate a title for the article.
思维链
prompt
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
AIGC( AI Generated Content) 是由AI自动创作生成的内容,即AI接收到人下达的任务指令,通过处理人的自然语言,自动生成
图
片、视频、音频等。
大模型
RAG
RAG超参数调优食用指南
ParamTuner 不仅可以定义我们想要的任何目
标
函数,例如带有评估的 RAG 管道;还能够以同步或者异步的方式进行网格搜索;并且 LlamaIndex 官方使用了
rag
大模型
LLM
确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
除了那些可以使用现有指
标
自动评估的确定性任务外,我们还进行了一项有106名参与者的人类研究,以评估使用香草和情感提示的生成任务的质量。
Prompt
大模型
情感激励
开源
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
部分基准测试指
标
已达到或超越 GPT-4o、DeepSeek-V3-0324(671B)等更大规模模型的水平。
GLM模型
智谱
企业
为什么说数智化可以帮助中小企业降本增效 ?
此外,还有一些黑客,利用单位内通讯工具来进行恶意攻击的情况,例如我现在打开浙大邮箱,首页还是下面这幅
图
。
大模型
Prompt
7个有用的Prompt参数
例如将上下文窗口设置为100个
标
记,那么模型将只考虑输入文本的最后100个
标
记。
prompt
ChatGPT
如何使用ChatGPT写论文
请包括以下几个部分:
标
题、摘要、引言、相关工作、方法、实验、结果、讨论、结论和参考文献。
ChatGPT
写作
大语言模型应用中的文本分块策略
答案将决定哪种模型更适合您的目
标
,从而决定应用哪种分块策略。
开源模型
语音
GLM-4-Voice 9B——实时多语言语音对话 AI——几分钟内即可在本地安装
低延迟:通过支持流式推理,该模型的延迟约为 20 个
标
记,使其能够在实时对话中实现近乎即时的响应。
GLM-4-Voice
9B
语音
安装
ChatGPT
用ChatGPT写论文prompt大全
请包括以下几个部分:
标
题,摘要,引言,相关工作,方法实验,结果,讨论,结论和参考文献。
prompt
Prompt
Prompt屠龙术-少样本示例
分组来放置示例 o • 在Claude中,建议使用 <example></example>
标
记来包装示例
Prompt
少样本示例
大模型
中文LLaMA-2基座模型和Alpaca-2指令精调大模型-中文LLaMA-2以及Alpaca-2系列模型
指令/Chat模型(类ChatGPT) 训练语料 无
标
注通用语料
大模型
OpenAI
whisper-live:OpenAI Whisper模型的近实时实现
语言选项指定转录的目
标
语言,在本例中为印地语(“hi”)。
OpenAI
Whisper
大模型
利用LangChain建gpt专属知识库,如何避免模型出现“幻觉”,绕过知识库知识乱答的情况?
比如典型的Langchain-ChatGLM的架构
图
,加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的
LangChain
知识库
<
...
63
64
65
66
67
68
69
70
71
72
...
>
1
2
4
5
6
7
8
9
100