首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 盘点字节跳动最新的AI应用
· 小学生都能看懂的 Prompt 高级技巧: Few-Shots 、 COT 、 SC、 TOT 、 Step-Back
· 智能知识图谱SmartKG和pySmartKG简介
· [Stable Diffusion]SD安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件
· Stable Diffusion高级教程 - 图生图(img2img)模式
· 解读 | SuperCLUE 2023年9月全面测评大模型四大能力
· 实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
· Agent四大范式 | 综述:全面理解Agent工作原理
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 6个最佳开源TTS引擎
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型时代-行业落地的再思考
所以,行业大模型可以先简单定义为用行业数据重新训练、
微
调了一个通用大模型,来解决行业问题。
大模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
什么是P-tuning-v2 我们让claude.ai解释一下: P-tuning-v2是基于Prompt-tuning方法的NLP模型
微
调技术。
ChatGLM2-6B
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
这类似于人类的神经
信
号传输,决定了一些Agent可表征的
信
息范围、
信
息损失和计算效率问题。
LLM
Agents
大模型
语言大模型100K上下文窗口的秘诀
因此,模型可以扫描并保留此数量的“自定义”
信
息来处理查询!
大模型
ChatGLM
【本地部署】智谱chatglm3-6B第三代!性能如何?支持调用tools+Agent+代码执行!小白教程!附网盘下载!
看起来
信
心满满!
chatglm
智普
大模型
大模型
EduChat:教育行业垂直领域大模型
解决第二个挑战: 本文探索了一种检索增强技术,使LLMs能够自动判断检索
信
息的有用性,并根据LLMs中存储的相关
信
息和知识生成响应。
教育
大模型
垂直领域
ChatGLM
LangChain + ChatGLM2-6B 搭建私域专属知识库
o• ChatGLM2-6B 部署 o• ChatGLM2-6B
微
调 o• LangChain + ChatGLM2-6B 构建个人专属知识库
知识库
大模型
大模型应用的10种架构模式
更大的模型(如GPT-4)负责理解上下文,并将其分解为特定的任务或
信
息请求,这些任务或
信
息请求被传递给更小的代理。
大模型
架构
Stable Diffusion
Stable Diffusion生成图片参数查看与抹除
查看图片的生成参数 1、打开Stable Diffusion WebUI,点击Tab菜单中的【图像
信
息/PNG Info】,不同版本的WebUI可能显示的文字或略有不同。
文生图
Stable
Diffusion
开源
阿里推理模型来了!Marco-o1 发布即开源
它通过思维链(CoT)
微
调、蒙特卡罗树搜索(MCTS)和反思机制等创新技术,让AI在处理复杂问题时更加得心应手。
Marco-o1
推理模型
大模型
大模型业务应用中数据准备的要求、难点及解决思路
1.政策法规的要求 8月15日,国家网
信
办等7部门联合发布的《生成式人工智能服务管理暂行办法》正式施行。
大模型
RAG
12个RAG常见痛点及解决方案
以下是论文总结的7个痛点: 内容缺失 当实际答案不在知识库中时,RAG系统提供一个看似合理但不正确的答案,这会导致用户得到误导性
信
息 解决方案: 在由于知识库中缺乏
信
息
RAG
大模型
Prompt
解读提示工程(Prompt Engineering)
提示
微
调包括了在使用 LLM 之前使用一个小的可训练模型。
Prompt
提示词
大模型
【揭秘】BELLE大模型:一个集合训练、数据、模型、APP的超级神器,让每个人都能拥有自己的“大模型”!
相较于全参数
微
调,基于 LoRA 的调优在训练成本方面展现出明显的优势。
训练
大模型
belle
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
众所周知,RLHF 三阶段分别是:有监督
微
调(SFT),奖励模型(RM)与近端策略优化(PPO)。
HAI-Chat
RLHF
<
...
19
20
21
22
23
24
25
26
27
28
...
>
1
2
4
5
6
7
8
9
100