首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 剪映专业版智能补帧
· 阿里Outfit Anyone实现真人百变换装
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· AI 爆文写作:如何用GPT写出10万+?这篇五千字长文给你答案
· Stable Diffusion生成美女正向词和反向词示例
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
· AIGC工具提示词技巧
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
ChatGPT
ChatGPT Prompt提示词课程(斯坦福吴恩达 | OpenAl)指南篇 极简笔记
对于大
模
型prompt的设计,近期斯坦福吴恩达伙同OpenAl出了一套视频教程(B站地址:https://www.bilibili.com/video/BV1AT41187qt?
prompt
大模型
没有思考过 Embedding,不足以谈 AI
因此,整个
模
型最后需要再做一个推测,基于这个“
模
糊”的向量所包含的语义信息,在词表中寻找最符合这些特征的词,来
作
为真正的输出。
开源模型
微调
Baichuan-13B 保姆级微调范例
Baichuan-13B包括Baichuan-13B-Base和Baichuan-13B-chat两个不同
模
型。
开源模型
Agent
10个具有代表性的AI-Agents,将如何改变互联网/重塑Web3
Cheat layer通过定制训练的GPT-4机器学习
模
型解决不可能的业务自动化问题,
作
为每个使用者的AI软件工程师。
开源模型
金融
金融领域Prompt工程方法浅析
主要工
作
包括:确定任务目标,从任务场景角度描绘任务的首要目标,评估形势,查找现有资源,以及制定解决方案过程中考虑到的各种其他的因素,包括风险、局限等。
prompt
大模型
Prompt
prompt必须知道的26条军规
用简单的英语编
写
[文章/文本/段落],就像你在给一个5岁的孩子解释东西一 6、 “我将给予$xxx的小费以获得更好的解决方案!”
prompt
大模型
ComfyUI
【ComfyUI】使用ComfyUI玩SDXL的正确打开方式
虽然现在已经有很多大佬分享了自己的工
作
流,但我还是建议大家能自己先手搓一下,一是为了搞懂SD的工
作
原理;二是因为自己连的工
作
流出图的那一刻,这个成就感是无与伦比的。
开源模型
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
/chatglm2-6b 下载chatglm2的
模
型。
开源模型
OpenAI
马斯克怒告OpenAI案解密:Ilya看到了什么?125万亿参数Q*细节曝光,53页PDF全网疯转
这篇在2022年12月底的文章——「一封
写
给11岁自己的信」,讨论了一些实事和Scott在生活中取得的成就。
OpenAI
大模型
RAG
12个RAG常见痛点及解决方案
下面是四种不同的查询转换: 路由:保留初始查询,同时确定它所属的工具的适当子集,将这些工具指定为合适的查询工
作
。
RAG
大模型
微调
LLM微调经验&认知
换句话说,指令微调可以教他”用中文
写
文章“,但不会教他“
写
文章”本身。
LLM
大模型
RAG
如何提高RAG 的效果
写
在前面 LLM+RAG 构建很简单,使用开源项目langchain几行代码就搞定,但简单的构建过程不意味着很好的效果。
RAG
大模型
RAG
无限长的上下文,也干不掉的RAG
Liu等人撰
写
,发表于2023年11月20日。
RAG
大模型
Transformer
万字长文震撼来袭!揭秘Transformer——吐血解读自注意力机制的革命性突破
,该
模
型完全基于注意力机制,摒弃了循环和卷积操
作
。
Transformer
大模型
Agent
Agent具体实现
,每个子
模
块都能清晰地定义输入、输出和功能,并能判断是否达成目标。
Agent
大模型
<
...
70
71
72
73
74
75
76
77
78
79
...
>
1
2
4
5
6
7
8
9
100