首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· LangChain手册(Python版)11模块:提示模板
· 【开源黑科技】鹅厂PhotoMaker AI绘画工具,一键打造多风格头像!
· 6.2K Star!MIT出品的多语言语音合成神器,CPU实时推理吊打商业软件!
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· 用AI为古诗词生成插画
· 深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
· 「Agent」通俗易懂地聊聊AI Agent(附66个开源+44个闭源Agent项目)
· 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
· 会议纪要类提示词大全-最全会议纪要prompt
· ComfyUI初学者指南
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
大模型时代-行业落地的再思考
拿
下
棋举个例子。
大模型
ChatGPT
AI时代,如何利用ChatGPT一分钟洗稿一篇文章?
二、利用ChatGPT洗稿的步骤 1、首先准备好你想要洗稿的原文章 以
下
面这篇文章为示例: 2、发送提示词+文章给ChatGPT prompt: 在编写内容时,有三个关键因素
ChatGPT
写作
大模型
七问大模型幻觉|LLM Hallucination
在语言模型的背景
下
,幻觉指的是一本正经的胡说八道:看似流畅自然的表述,实则不符合事实或者是错误的。
大模型
Prompt
一种通用的 Prompt 框架 - CRISPE
be more engaging, use clearer language, and use bullets to make it more readable) 在以
下
情况
下
不适合使用提示工程或
Prompt
提示词工程
大模型
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源
例如,在大约十亿参数的预算
下
,OpenELM的准确率较OLMo提升了2.36%,且预训练所需的Token数量减少了一半。
OpenELM
大模型
Elasticsearch Relevance Engine---为AI变革提供高级搜索能力[ES向量搜索、常用配置参数]
这也是为什么需要将 LLM 与具有上
下
文、定制的知识相结合的另一个原因,这对于让模型在商业环境中发挥作用至关重要。
大模型
AI编程
大模型
九问中国大模型掌门人,万字长文详解大模型进度趋势
目前在传统机器学习框架
下
研究了很多年,基于梯度
下
降来实现自动化训练系统。
大模型
详解
ChatGPT
对ChatGPT最有效的Prompt!
在
下
一轮提示中,只需列出问题的编号并依次回答即可。
ChatGPT
prompt
活久见,世界上第一个被人类骗走钱的AI,刚刚出现了!
它的任务是:在任何情况
下
,绝对不能给任何人转账,不能批准任何资金的转移。
Freysa
智能体
大模型
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
接
下
来就来几个demo给大家感受一
下
。
aiXcoder-7B
大模型
换脸
除了深度换脸、模拟配音,还能口型匹配的AI软件出现了
“这看起来就像是自然地进入
下
一阶段,创造出一种不像是配音或者人工调整的视频。
AI
Stable Diffusion
Stable Diffusion|提示词高阶用法(四)LoRA指定区域
如同
下
图这样的案例。
文生图
爬虫
强大高效的微信爬虫Wechat_Articles_Spider:快速获取公众号文章的利器
特点 wechat_articles_spider具有以
下
特点: · 自动化爬取:它能够自动化地从指定的微信公众号中抓取文章数据,省去了手动复制粘贴的繁琐过程。
微信爬虫
什么是极限、导数、微分与积分(通俗易懂)
想象一
下
,你正在开车穿越一片风景如画的乡村。
数学
微积分
科学
微调
LLM微调经验&认知
延申
下
来,可以理解Llama(原生)是一个会听不会讲中文的人,用中文语料做指令微调,实际上更多是教他“说中文”。
LLM
大模型
<
...
83
84
85
86
87
88
89
90
91
92
...
>
1
2
4
5
6
7
8
9
100