首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· AI异常值案例库第2期,5个灵感案例,新型流量获客法和产品形态
· Fooocus制作从小到老图
· 字节跳动最强AI工具 “豆包” ,近1000款应用!一句话自动生成图文,堪比ChatGPT?
· 阿里Outfit Anyone实现真人百变换装
· 高效选择:Ollama与LM Studio深度对比
· 大模型中的Top-k、Top-p、Temperature详细含义及解释
· Wunjo AI: 合成和克隆英语/俄语/中文语音,实时语音识别,深度换脸和唇动合成,通过文本提示更改视频,分割和修饰
· 6个最佳开源TTS引擎
· AI换脸工具:facefusion使用心得
· SD入门教程二:文生图基础用法(提示词)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
prompt必须知道的26条军规
随着
研
究
人员继续探索通过提示工程可以实现的极限,这些原则可能会得到改进和扩展。
prompt
大模型
人工智能
目前有哪些比较成功的人工智能应用?
而AI在历史上大多数火在少部分的群体,比如科
研
人员,他们之间会比拼谁的模型识别准确率更高;比如有限的几个大公司,微软,谷歌,deepmind,谁又刷新了某个人工智能的榜单。
生成式AI
大模型
大模型时代-行业落地的再思考
如果有人仔细
研
究
过BloombergerGPT,就会发现模型的能力其实很差,比通用大模型会差很多。
大模型
停用词(Stop Words)的价值、收集与使用
假如我在做马哲相关领域的
研
究
或者应用,那么可以找几本电子版的马哲课本、将其中的文本段落解析出来,然后统计得到这样两个数字:(1)词语“物质”在数据集中出现的次数 ;(2)整个数据集中的词语总数
停用词
耗时7天,终于把15种ControlNet模型搞明白了
Lora教程之前已经出了,感兴趣的朋友可以去翻看 ControlNet一共有15种模型,每种模型对应不同的采集方式,再对应不同的应用场景,每种应用场景又有不同的变现空间 我花了一周时间彻底把15种模型
研
究
了一遍
文生图
RAG
Rerank——RAG中百尺竿头更进一步的神器,从原理到解决方案
让我们深入
研
究
这些指标,了解它们的重要性以及它们是如何运作的。
RAG
检索增强
Agent
AI Agent新对决:LangGraph与AutoGen的技术角力
使用AutoGen,
研
究
者们还可以灵活地定义代理交互行为,类似设置如何团队协作的游戏规则。
LangGraph
AutoGen
对决
GPTs
什么是GPTs!如何创建自己的第一个GPTs?
配置项如下所示: GPT配置介绍 LOGO:创建的GPT的头像 名称:你这个GPT叫啥名字 描述:GPT的简单描述信息 指令:系统指令或者指导这个GPT
究
竟该如何工作。
大模型应用
chatgpt
什么是极限、导数、微分与积分(通俗易懂)
在微积分中,这种对微小变化的探
究
就是微分的精髓。
数学
微积分
科学
人工智能
中国首份AIGC监管文件正式实施——《生成式人工智能服务管理暂行办法》简析
不过,与征求意见稿不同的是,管理办法引入了一项“安全港”例外,即“行业组织、企业、教育和科
研
机构、公共文化机构、有关专业机构等
研
发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的
人工智能
微调
微调大型语言模型-核心思想和方法介绍
多年来,
研
究
人员开发了多种技术(Lialin 等人)来微调 LLM,使其具有高建模性能,同时只需要训练少量参数。
大模型
训练
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
开源免费可商用:Baichuan-13B 不仅对学术
研
究
完全开放,开发者也仅需邮件申请并获得官方商用许可后,即可以免费商用。
大模型
微调
LLM
谈谈LLM在推荐域的渗透,探索推荐新范式
ICL方法的表现大幅度超越了Zero-Shot-Learning,为少样本学习提供了新的
研
究
思路。
大模型
模型压缩:量化、剪枝和蒸馏
有
研
究
表明,Multi-Head Attention 层存在较大的冗余,因此BERT 的12-Head Attention 可以通过剪枝变为4-Head 甚至更少,这样的剪枝操作可以大大缩短Multi-Head
BERT
语言模型
大模型
大模型训练为什么用A100不用4090
后来在华为,我也是鲲鹏、昇腾生态软件
研
发的核心参与者。
大模型
<
...
37
38
39
40
41
42
43
44
45
46
...
>
1
2
4
5
6
7
8
9
100