首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 基于本地知识的问答机器人langchain-ChatGLM
· 深入探讨:Agent全自动写作长篇小说技术原理解析
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· PPT又又有新突破了!智谱AI代码流造PPT
· 【重磅推荐】PaddleOCR:超越人眼识别率的AI文字识别神器!
· ComfyUI 图片以及工作流管理神器
· 用 Stable Diffusion 10分钟实现电商模特换装/换模特
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力
· 了解Kimi必看的26个问题 | Kimi系列文(二)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
它在许多外部基准测
试
中超越了其他开源LLMs,包括推理、编码、熟练度和知识测
试
。
开源模型
大模型
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
它通过激活专门处理输入数据不同方
面
的专家,显著提升了计算效率。
开源模型
Mixtral
8x7B
大模型
聊天大模型的输出速度应该是多少?单张显卡最多可以支持多少个人同时聊天?来自贾扬清最新的讨论~
根据贾扬清的测
试
,LLaMA2-7B在A10显卡上单次请求下,每秒可以生成40个tokens(约30个单词),完全超出了人类的阅读需求。
大模型
LLM
【一步一步引导】从零详细地梳理一个完整的 LLM 训练流程
税收效率原则包含经济效率和行政效率两个方
面
D.
大模型
训练
AIGC
朱啸虎讲了一个中国现实主义AIGC故事
有个做AI视频
面
试
的,2023年做得非常好。
朱啸虎
AGI
开源
搞了一个Dify开源知识库
://cloud.dify.ai/apps 进阶版(打怪升级) 进阶版(打怪升级):按照我对某类似产品的使用习惯,分为提示词编排、大模型、工作流、工具、知识库、应用等方
面
。
Dify
大模型
知识库
数字人
GitHub本月榜单:一个数字人技术的“非官方”实现
https://github.com/guoqincode/AnimateAnyone-unofficial AnimateAnyone 人工智能技术在电商领域的应用是多方
面
的
AnimateAnyone
人工智能
大模型
大模型评测新思路:弱智吧精华问题大全
最近,大型语言模型(LLM)取得了重大进展,特别是在英语方
面
。
弱智吧
训练数据集
大模型
大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?
自动微调的提示很成功,也很怪 当
面
对奇怪的提示工程技术时,LLM 的表现常常很怪异又不可预测。
prompt
大模型
提示
大模型
ollama本地部署自然语言大模型
测
试
机器: i5 8400 16G内存 1060 6G 安装ollama安装,下载,运行模型。
ollama
语言大模型
部署
OpenAI
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
面
对这种种现状,Ilya最近在路透社的采访中表示,扩展训练的结果,已经趋于平稳。
Scaling
Law
AI大模型
大模型
万字长文,AI大模型的应用实践总结
· 知识
面
广度:请模型回答关于不同主题的问题,以测
试
其对不同领域的知识掌握程度。
大模型
ChatGLM
基于本地知识的问答机器人langchain-ChatGLM
二、以淘宝衣服为例,测
试
问答效果 以淘宝衣服属性构建本地知识,测
试
问答效果。
langchain
ChatGPT
ChatGPT 技巧 | Prompt 逆向工程
ChatGPT 是一个很清爽的产品——界
面
上需要用到的只有对话框和发送按钮,除此之外并未多余的教程和介绍。
chatgpt
提示词
prompt
RAG
LangChain - RAG: 拿什么「降伏」PDF 中的 Table 类型数据
比如 RA-DIT
试
图通过增强 RAG 用到的 LLM + 单独训练一个 retriever 的方式加强 LLM 「自有」知识和外挂知识的双向奔赴
大模型
LangChain
RAG
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100