首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· VividTalk:用一张照片和一段音频让人物栩栩如生地说话
· ComfyUI进阶前必备插件们续
· 国产视频制作之光-可灵:提示词大全整理
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· Comfyui工作流管理插件,再也不用保存本地了!
· MindChat心理大模型
· 阿里Qwen3系列模型惊艳亮相
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
工具
免费文生图工具StableDiffusion喂饭级使用教程
www.bilibili.com/video/BV1ne4y1V7QU 一定要仔细看完视频 基础操作教程 轩轩的基础教程 目前找到的最系统化,讲的也最细致的教程了,不过因为讲的全所以
节
奏慢
文生图
SD
大模型
垂直领域大模型的一些思考及开源模型汇总
开源垂直领域大模型汇总 目前有很多的垂直领域大模型已经开源,主要在医疗、金融、法律、教育等领域,本小
节
主要进行「中文开源」模型的汇总及介绍。
垂直领域
大模型
开源模型
汇总
大模型
“大模型+机器人”的现状和未来,重磅综述报告来了!
在控制阶段,DiffTraj根据高层指令,通过反向扩散过程生成平滑、准确的机器人关
节
轨迹,并交由底层控制器执行。
论文
机器人
LLM
4种通过LLM进行文本知识图谱的构建方法对比介绍
提示也非常简洁(约41个token),不会占用太多的
字
符。
知识图谱
大模型
大模型
大模型微调方法总结
关于前缀/提示的设计,我们可以给模型若干的
字
词作为提示,比如我们想让模型生成“Obama”,那我们可以在其常见的搭配前加上上下文(例如,Barack),那么 LM 就会把更高的可能性分配给想要的单词
开源模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
/train.sh train.sh 中的 PRE_SEQ_LEN 和 LR 分别是 soft prompt 长度和训练的学习率,可以进行调
节
以取得最佳的效果
ChatGLM2-6B
企业
【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构
当需要网络搜索时使用 回答时请遵循以下========内的格式: =========== Question: 我需要回答的问题 Thought: 回答该问题我需要做什么 Action: 【以上的一个工具名
字
】
大语言模型
人工智能
人工智能训练的灾难性遗忘以及解决方案
在这个数
字
化时代,我们每天都在与人工智能(AI)打交道,从智能语音助手到自动驾驶汽车,从智能医疗设备到智能家居,AI已经深入到我们生活的各个角落。
人工智能
大模型
SQL
RLHF 在 Text2SQL 领域中的探索
· · PART 3 RLHF+Text2SQL 实践探索 本章
节
主要结合 DB-GPT-Hub 项目代码以及一些 RLHF
Text2SQL
RLHF
企业
初创企业必知的 30种商业模式(附实例)
示例:Alchemy 是各种区块链的
节
点提供商。
初创
商业模式
Transformer
如何最简单、通俗地理解Transformer?
然后,解码器逐
字
生成输出句子,同时参考编码器生成的表示。
Transformer
大模型
大模型
大模型压缩首篇综述来啦~
这些想法旨在在不影响性能的情况下
节
省内存。
大模型
【NLP技术分享】文本生成评价指标的进化与推翻
算法首先从待评价
字
符串和参考
字
符串之间创建一个平面图如下: 所谓平面图,就是1元组之间的映射集。
开源模型
LangChain 的问题所在
绝对不建议在一个提供非常有限价值同时又从你那里隐藏了大量细
节
和决策的库上构建系统。
大模型
大语言模型
RAG
你真的会写 Prompt ? 剖析 RAG 应用中的指代消解
最后解析 LLM 的返回时,只需要把 LLM 返回
字
符串的格式拆解开,只有在“NEED COREFERENCE RESOLUTION:”后跟“Yes”的情况,才去拿最后“OUTPUT QUESTION
Prompt
大语言模型
RAG
<
...
68
69
70
71
72
73
74
75
76
77
>
1
2
4
5
6
7
8
9
100