首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 盘点字节跳动最新的AI应用
· 【工具书】文生图常用的正向反向提示词以及常用词中英文对照表
· ComfyUI初学者指南
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Slea.ai
· 如何改善你的回测方法,提高策略的未来收益
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 语音识别的新拐点:OLMoASR 带来的机会
· ComfyUI 基础教程(一)环境部署和插件安装
· FaceFusion又更新咯,增强功能再增强!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
AutoGPT与LLM Agent解析
从
语
言理解到任务执行 之前大多相关项目和产品都主要利用了 GPT 模型的
语
言理解方面的能力,例如生成
文
案的 Jasper,Notion AI,帮忙做网页、
文
档总结的 Glarity,Bearly.ai
大模型
ChatGPT
模拟ChatGPT流式数据——SSE最佳实践(附可运行案例)
为什么要这样传输,从使用场景上来说,ChatGPT 是一个基于深度学习的大型
语
言模型,处理自然
语
言需要大量的计算资源和时间,响应速度肯定比普通的读数据库要慢 接口等待时间过长,显然不合适。
GPT
Prompt
使用思维链写Prompt
例如,面对复杂问题时,使用思维链写的Prompt,能让大型
语
言模型(如GPT-3或GPT-4)不仅提供答案,还能展示出达到这个答案的思维过程。
思维链
prompt
Prompt
AI绘画:stable difussion SD插件之 无限抽卡神器 dynamic prompts(动态提示词)
在该选项卡
中
打开"从URL安装"选项卡。
AI图片
大模型
大模型检索增强生成RAG的优化
·
文
档块切分:设置适当的块间重叠、多粒度
文
档块切分、基于
语
义的
文
档切分、
文
档块摘要。
RAG
检索增强
大模型
AI知识库总是不准?教你无脑用GPT整理结构化数据集...
比如典型的Langchain-ChatGLM的架构图,加载
文
件 -> 读取
文
本 ->
文
本分割 ->
文
本向量化 -> 问句向量化 -> 在
文
本向量
中
匹配出与问句向量最相似的
GPT
OpenAI
震惊!OpenAI发布Meta-Prompt,未来不再需要提示词。
就像是给你配了个24小时专属AI导师,帮你把"蹩脚英
语
"秒变"莎士比亚"!
Meta-Prompt
提示词
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
微调Llama3的自我认知后 当你问Llama3
中
文
问题: “你叫什么名字?”
Llama3
对话问答模型
Prompt
43个商业价值很高的prompt
校对以上
文
字的拼写和
语
法。
prompt
基于Ollama本地部署Llama3指南!
模型架构 Llama 3 是一个自回归
语
言模型(an auto-regressive language),它使用优化的 transformer 架构。
LLama3
ollama
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
中
文
方法!
MoE
专家混合模型
大模型
天塌了,Scaling Law 已撞收益递减墙?OpenAI 在内,所有大模型都正遭遇巨大瓶颈
报道提到,GPT 开发速度放缓的部分原因是用于预训练的
文
本和数据供应减少(预训练有助于 LLM 理解概念之间的关系,从而解决起草内容或调试代码等任务)。
Scaling
Law
AI大模型
Python
Pynsist:一键打包 Python 应用代码成 Windows 安装程序
• 捆绑依赖包: Pynsist 可以自动将您的应用依赖的 PyPI 包打包到安装程序
中
,确保应用能够在目标机器上正常运行。
Pynsist
程序
大模型
大模型微调数据选择和构造技巧
如果说我们直接采样一批线上的图
文
文
本,直接送给标注的话,会存在一个严重的问题:他们标注的数据大部分都是攻略类,技术类比较少,标了3个月才攒了几千条大模型技术
文
本,但是攻略类已经成几万了。
大模型
微调
大模型
为什么Llama2大模型可以在个人电脑上部署 ?
最近一直在忙着研究这些开源的大模型,写
文
的频率慢了点。
开源模型
<
...
86
87
88
89
90
91
92
93
94
95
...
>
1
2
4
5
6
7
8
9
100