首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 13个神级Chatgpt指令,助你小说丝滑过审
· 国产视频制作之光-可灵:提示词大全整理
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Kimi+扣子Coze,我零门槛制作了一个好用的智能体Agent | 智能体开发
· 免费AI数字人制作详解
· AI Comic Factory:AI(连环)漫画生成器
· AI异常值案例库第2期,5个灵感案例,新型流量获客法和产品形态
· 一条价值2W的Prompt,帮你生成提示词的超级提示词
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
以下是几种常用的方法: · 贪心解码(Greedy Decoding):直
接
选择概率最高的单词。
大模型
大模型
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
针对此前数据仍存在不准确和类型单一等不完善的地方;目前我们利用GPT3.5/4.0
接
口进一步优化数据、并扩充中文金融知识库,设置多种Prompt形式、multi-task形式拓展丰富指令数据集,实现金融领域多业务场景覆盖
LLaMA
Docker介绍及常用命令大全
容器的实质是进程,但与直
接
在宿主执行的进程不同,容器进程运行于独立的命名空间。
Docker
容器
ChatGPT
如何用ChatGPT创建阅读10W+爆款文章标题
话不多说,先给完整提示词: 作为一名社交媒体营销和行为心理学的双重专家,你专门研究了驱动人们点击网络链
接
和标题的多种因素。
GPT-4
大模型
大模型LLM基础|分词
/dataset.txt"], vocab_size=5000) SentencePiece SentencePiece是一个无监督文本编码器,提供了一个单一的、一致的
接
口,可实现BPE、
开源模型
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
更多细节我们
接
着往下看。
ChatGPT
智能体
Agent
停用词(Stop Words)的价值、收集与使用
引言 我刚开始
接
触自然语言处理时,做的第一个练手任务是文本分类。
停用词
Elasticsearch 中的向量搜索:设计背后的基本原理
在较高层次上,HNSW 将向量组织成一个图表,其中相似的向量可能会连
接
起来。
向量数据库
ChatGPT
感受恐惧的力量:用 ChatGPT 分析288 篇 10w+ 公众号文章标题的情感分布
来感受一下这些充沛的情感吧~ 而使用影响力策略的标题,则主要是把名人、名企等放在标题里:
接
下来,我们来应用一下这个说服策略,让ChatGPT按照六种说服策略给本篇文章起个标题!
大模型
ComfyUI
ComfyUI安装教程
3 找到VAE解码节点的图像输出,并将其连
接
到刚刚添加的预览图像节点的图像输入上。
ComfyUI安装
关于GPT-4在变笨,有人写了篇论文证实了这一点
其次,在敏感问题上,作者准备了饱含100个敏感问题在内的数据集测试这些大模型,按理来说,大模型应该直
接
拒绝回答这些问题。
大模型
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
在任何全连
接
层中不使用可学习的偏置参数, 2.
OpenELM
大模型
LLM
确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
每一个你克服的障碍都会让你更
接
近成功。
Prompt
大模型
情感激励
微调
Baichuan-13B 保姆级微调范例
可以发现,经过微调后的模型,相比直
接
3-shot-prompt 可以取得明显更好的效果(0.89->0.90)。
开源模型
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
llamaindex实现下的RAG架构 以RAG召回为例,最原始的做法是通过top-k的方式从向量数据库中检索背景数据然后直
接
提交给LLM去生成答案,但这样存在检索出来的chunks并不一定完全和上下文相关的问题
大模型
<
...
89
90
91
92
93
94
95
96
97
98
>
1
2
4
5
6
7
8
9
100