首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· 解读 | SuperCLUE 2023年9月全面测评大模型四大能力
· 必看!ComfyUI故障应对指南,让您轻松应对每一个挑战
· 为什么说AI现在还不行!
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 金融行业的开源AI大模型
· 10大Midjourney描述词网站,让你Ai创作随心所欲!
· 使用思维链写Prompt
· 国产视频制作之光-可灵:提示词大全整理
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
大语言模型微调:定制自己的微调数据集
尽管有研究表明重复数据并不降低模型的质量,但是重复冗余的数据会增加额外的微调
成
本。
大模型
Github
GitHub上很火的RPA框架:一款用于验收测试和 RPA 的通用自动化框架robotframework
5.强大的报告和日志功能:Robot Framework
生
成
详细的测试报告和日志,可以帮助用户分析测试结果和问题定位。
RPA框架
自动化
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
其三是合
成
得到的监督数据,利用GPT3.5为来自Wiki跟MC4的长文本
生
成
对应的问题,用于缓解模型在长文档检索任务的不足,同时引入额外的多语言数据。
BGE
M3-Embedding
多语音检索
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
Infini attention 让基于Transformer的模型能够在有限的内存占用和计算量下高效处理无限长的输入序列,它把压缩内存集
成
到标准的注意力机制中,并在单个Transformer块内构建了掩码局部注意力和长期线性注意力机制
大模型
上下文
ChatGPT
让ChatGPT帮我写SQL
https://github.com/whoiskatrin/sql-translator.git //安装依赖 cd sql-translato rnpm install //
生
成
应用程序
SQL
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
这个真正难题我在前面的文章中《一些LLM的声音总结》中提到过,基于大模型的企业应用中很大一部分需求就是RAG——检索增强
生
成
。
RAG
大模型
大模型
国内法律类大模型介绍
; * 基础模型:ChatLAW-13B * 数据:论文、新闻、法规、司法解释、法律咨询、法考题、判决文书组
成
,
法律
大模型
大模型
会“追问”的Agent,大模型知识库另类实践
在实际的
生
产环境中,此类知识库应用可能遇到两类问题:知识型和政策型(图1)。
大模型
回归分析:探索变量之间的奥秘
无论在哪个领域,经济学、
生
物学、医学还是社会科学,回归分析都发挥着至关重要的作用,
成
为指引我们前进的明灯。
回归分析
变量
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
(二、软件和部署) 本期开始,为大家讲下这些大模型是怎么训练
生
成
的 首先,为了确保本系列的讲解流畅,我将直接深入讲解大型语言模型的代码。
大模型
爬虫
强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
打开终端或命令提示符,并执行以下命令安装wechat_articles_spider: pip install wechatarticles 步骤 3: 安装完
成
后
微信爬虫
大模型
大模型时代-行业落地的再思考
这类做法只是对大模型的
生
搬硬套,对解决领域问题和传统方法并没有很大的帮助。
大模型
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
7B版本采用RoPE编码方式,而13B使用了ALiBi位置编码技术,后者能够处理长上下文窗口,甚至可以推断超出训练期间读取数据的上下文长度,从而更好地捕捉文本中上下文的相关性,让预测或
生
成
更准确。
大模型
中文
基于Ollama本地部署Llama3指南!
实际使用Llama3 llama3_8B的
生
成
速度非常快,这个版本用N卡8G的显存跑问题也不大。
LLama3
ollama
OpenAI
《OpenAI官方:GPT 最佳实践》大白话编译解读版本
明确完
成
任务所需的步骤 5.
提示词
官方
翻译
<
...
92
93
94
95
96
97
98
99
100
101
>
1
2
4
5
6
7
8
9
100