首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 掌握Prompt的6心法
· 傻瓜式!一键部署ChatGLM3,免去环境烦恼+开箱即用!集成API调用!本地化界面操作!
· Stable Diffusion的模型分类以及使用
· 大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
· 一文汇总市面上所有prompts提示词框架!
· 鹅厂版AI笔记悄悄上线,微信公众号优质内容秒变专属知识库,实测在此
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· GenColor.ai
· MCP服务介绍及应用场景报告-来自Manus
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RAG
24年首篇离奇论文:加点噪声,RAG效果翻倍?
论文实验 本文主要介绍了关于基于知识
图
谱的问答系统(RAG)中如何优化问题回答效果的研究。
RAG
检索增强
Prompt
自动优化Prompt:Automatic Prompt Engineering的3种方法
补充:GPT系列支持insert模式;Open
AI
的这篇论文[5]讲解了insert模式的实现原理。
prompt
大模型
大模型
大模型检索增强生成(RAG)高质量报告
如何利用召回的信息 RAG的发展总览 数据索引怎么优化 结构化语料库 对召回的来源进行优化 知识
图
谱作为召回的数据源
RAG
大模型
检索
大模型
技术布道 | Prompt评估与优化,让魔法打败魔法,通过大模型获得更优质的Prompt进而获得更优质的内容
可以看到如下
图
所示的评估内容,包括2个场景和2个Prompt,当然我们也可以自定义增加Prompt。
prompt
大模型
ChatGPT
40个麦肯锡高手常用的、鲜为人知的ChatGPT指令
亲和
图
:“使用亲和
图
对[我的商业决策]相关的想法、主题或问题进行分组。
ChatGPT
prompt
中本聪的Web3之路
• 以太坊的创立:2013年11月,Vitalik Buterin发布了一篇名为《以太坊白皮书:下一代智能合约和去中心化应用平台》的论文,提出了一种基于
图
灵完备的智能合约和虚拟机的区块链平台
token
比特币
加密货币
Pytorch安装(保姆级教学 真·满血·GPU版)CUDA更新?torch版本?一文全搞定!
检查电脑CUDA驱动版本 (1)右键点击NVIDIA,打开控制面板 (2)点击帮助中的系统信息 (3)点击组件,查看CUDA版本 如
图
所示,我的电脑目前CUDA
训练
WSL2安装(详细过程)
运行直接集成到Windows桌面的 GNU/Linux
图
形应用程序 将GPU加速用于机器学习、数据科学场景等 安装WSL2步骤 1.为Linux启用子系统 检查windows功能是否开启了 适用于
虚拟化
docker
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
这里是XAgent绘制的一张
图
: 案例2.
ChatGPT
智能体
Agent
数字人
最强开源数字人对口型系统介绍
使用过原版开源的Wav2Lip的都知道,原作者使用分辨率很低的
图
像数据集训练的模型,嘴部特别清晰,基本没啥价值,但是 这个框架和算法倒是不错,如果想得到高清模型,得付出相当大的精力去收集高清数据集从头训练
数字人
开源模型
浅浅介绍下中文分词,用这些库搞定
最后,使用matplotlib库绘制词云
图
像并显示出来。
Python
分词库
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
我们都有一些非理性的信念,只要不试
图
用贝叶斯推理证明它们,那就完全没有问题。
贝叶斯定理
大模型
大模型文本生成——解码策略(Top-k & Top-p & Temperature)
下
图
展示了 top-p 值为 0.9 的 Top-p 采样效果: top-p 值通常设置为比较高的值(如0.75),目的是限制低概率 token 的长尾。
大模型
大模型
总结!大模型微调(Tuning)的常见方法
下
图
是细致的对比: P-tuning v2 V2版本主要是基于P-tuning和prefix-tuning技术,引入Deep Prompt Encoding和Multi-task Learning
微调
大模型
实测:本地跑llama3:70B需要什么配置
打开命令行,运行命令 ollama run llama3:70b 几分钟以后下载完毕,出现>>>提示符的时候就可以正常的跟70B模型交互了 下面放两张
图
,对比模型加载前后系统硬件占用情况的对比
llama
GPU内存
<
...
82
83
84
85
86
87
88
89
90
91
>
1
2
4
5
6
7
8
9
100