首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Fooocus制作从小到老图
· AI写作:如何用AI一键提炼文章要点,10倍提效(含提示词)
· MCP服务介绍及应用场景报告-来自Manus
· 多智能体开发框架怎么选型?京东 JoyAgent vs langchain LangGraph,两种Agent开发哲学的碰撞!
· 元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入
· 大模型量化:什么是模型量化,如何进行模型量化
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
M3E 可能是最强大的开源中文嵌入模型
text2vec": "/home/featurize/data/text2vec-large-chinese", # 修改处 "m3e-small": "moka-
ai
开源模型
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型由多层双向的Transformer编码器组
成
,由12层组
成
,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。
大模型
Agent
Coze多智能体(Multi-Agents)模式体验!
在人工智能的发展历程中,智能体(Agent)的研究早已开展,其概念之广泛,几乎可以构
成
一个完整的系统。
Coze
多智能体
Stable Diffusion
Stable Diffusion插件:提示词
可以使用我分享的资源,关于微信公众号:萤火遛
AI
(yinghuo6ai),发消息:SD,在插件文件夹中找到 sd-webui-prompt-all-in-one,下载后解压,然后上传到 WebUI 的插件目录
Stable
Diffusion
提示词
体验Outfit Anyone,高质量虚拟换装,效果如何?
首先,它能
生
成
高质量、逼真的虚拟试穿画面,让你感受到真实的穿着效果。
Outfit
Anyone
模拟
开源
阿里推理模型来了!Marco-o1 发布即开源
它通过思维链(CoT)微调、蒙特卡罗树搜索(MCTS)和反思机制等创新技术,让
AI
在处理复杂问题时更加得心应手。
Marco-o1
推理模型
ChatGPT
ChatGPT写论文指令全集
每种提示类型都有其独特的作用和效果,使用户能够根据不同的需求和场景来优化与
AI
的交流。
ChatGPT
写作
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
Gemma 的名字来源于拉丁语 "gemma",意为“珍贵的石头”,象征着其在
AI
领域的重要价值。
ollama
gemma
qwen
大模型
图解大模型训练之:张量模型并行(TP),Megatron-LM
有几块GPU,就把W按行维度切
成
几份。
开源模型
开源
玩一玩阿里通义千问开源版,Win11 RTX3060本地安装记录!
同时,在Qwen-7B的基础上,我们使用对齐机制打造了基于大语言模型的
AI
助手Qwen-7B-Chat。
通义千问
大模型
大模型微调经验汇总---LLM finetuning 踩坑经验之谈
FelixCoder 链接:https://zhuanlan.zhihu.com/p/639462205 一、前言 由于 ChatGPT 和 GPT4 兴起,如何让人人都用上这种大模型,是目前
AI
大模型
人工智能
ChatGPT
10个值得收藏的ChatGPT辅助编程技巧
这是另一个用作正则表达式
生
成
器的 ChatGPT 示例。
编程
提示词
chatgpt
ChatGLM
60分钟吃掉ChatGLM2-6b微调范例~
也就是把context转化
成
context_ids,把target转化
成
target_ids.
开源模型
RAG
改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果
llamaindex实现下的RAG架构 以RAG召回为例,最原始的做法是通过top-k的方式从向量数据库中检索背景数据然后直接提交给LLM去
生
成
答案,但这样存在检索出来的chunks并不一定完全和上下文相关的问题
大模型
大模型
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
Fin-Alpaca-LoRA-7B-Linly 中文金融问答微调模型 Linly-
AI
LLaMA
<
...
86
87
88
89
90
91
92
93
94
95
...
>
1
2
4
5
6
7
8
9
100