首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 通义千问
· Anthropic推出提示词生成器让AI秒懂你的需求!
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 图解大模型训练之:张量模型并行(TP),Megatron-LM
· 集成文字生成、抠图、图像融合等强大功能的comfyUI 插件 Allor Plugin
· 使用ChatGPT润色出高品质文章的提示词
· 数字人直播哪家强?百度、硅基、风平与闪剪四大AI数字人横向评测!
· prompt中的分隔符号的正确使用方法
· 最受欢迎的15个ChatGPT提示词,优化给ChatGPT用户,拿走不谢
· Suno音乐新手指南(手把手完整版教程)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Stable Diffusion
12/180 stable diffusion 局部重绘 换衣|换背景|换模特
画完之后重新缩小 优点是细节处理比较好 2.换衣 将衣服用画笔进行涂抹 提示词加上红色T恤 并
增
加权重
文生图
stable
diffusion
大模型
大模型训练为什么用A100不用4090
首先,正向传播中间状态(activation)的存储容量会成倍
增
加,加剧内存容量不足的问题。
大模型
文心一言
揭秘Baichuan 3超越GPT-4的中文实力!文心一言、GLM 4.0也甘拜下风?全方位对比测试大揭秘!
这得益于它突破性的“迭代式
强
化学习”技术,让语义理解和生成能力更上一层楼。
Baichuan
3
大模型
Prompt
爆火的“哄哄模拟器”,它是如何炼成的?Prompt泄漏了
* 初始原谅值为20,每次交互会
增
加或者减少原谅值,直到原谅值达到100,游戏通关,原谅值为0则游戏失败。
提示词
prompt
Mokker,想取代商业棚拍效果的场景生成AI
点击商品后可以看到Mokker提供很多模板作为棚拍的预设环境: 选择完模板后跳转到操控界面,非常简洁但也很好玩: 然后我这边尝试调整一下松枝的位置,再
增
加一些小道具: 最后调整完的效果
Mokker
图生图
数字人
AI数字人:重构人货场的新力量
它们利用语音识别、自然语言处理、计算机
视
觉等技术,实现与人类的自然交互,成为人类与计算机之间沟通的桥梁。
数字人
AI
商业
微调
NEFTune:在Embedding中加入噪⾳提⾼指令微调效果!
对NEFTune的评估结果: 改善了文本质量 从表1中可以看出,在7B规模下,所有数据集都有所
增
加,平均
增
幅为15.1%。
NEFTune
大语言模型
大模型
大模型时代,数据为王,在哪里寻找开源数据集?
www.kaggle.com/datasets 11、uci开源数据集 链接:https://archive.ics.uci.edu/datasets 12、计算机
视
觉开源数据集
开源数据
训练
第一性原理以及第一性原理是怎么帮马斯克成为首富的
在特斯拉和SpaceX,马斯克
强
调所有工程师都要从第一性原理出发工作,质疑每一项要求的必要性。
马斯克
商业
RAG
RAG与Long-Context之争—没必要争
但大模型随着输入长度越长,KV Cache所占资源就越多,成本也会剧
增
,这也是为什么有人持观点,未来也会有RAG。
RAG
Long-Context
大模型
Python
Python入门与语法速查
dict1.get('a')) #如果没有返回None print("获取所有的key值:", dict1.keys) print("获取所有的value值:", dict1.values) #
增
加新的键
python
编程
智谱AI官网再升级,GLM-4,智能体,AI作图长文档全部搞定!
最近国内有一部大热的电
视
剧《繁花》,请帮我深度分析剧情并搜索相关信息写出一篇影评,主题是:看了《繁花》的评论区,才明白什么叫“山猪吃不了细糠”,影评的文字风格要极力模仿张爱玲的作品。
GLM-4
智能体
大模型
LLM大模型推理输出生成方式总结
温度越高,分布曲线越平缓,
增
加了低概率字被采样到的机会。
大模型
一文带你认识ELMo
由于单词级别考虑数据可能稀疏,出现OOV问题,拆成字符后稀疏性没有那么
强
了,刻画的会更好。
embedding
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
_8b_chat_qlora_alpaca_zh_e3_self.py 文件中的 “pretrained_model_name_or_path” 变量的值为下载到本地的Llama 3 模型的路径,并
增
大
Llama3
对话问答模型
<
...
70
71
72
73
74
75
76
77
78
79
...
>
1
2
4
5
6
7
8
9
100