首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 盘点字节跳动最新的AI应用
· 13个神级Chatgpt指令,助你小说丝滑过审
· 我用AI写小说:「素材篇」4种大神写爽文技巧+找素材新思路+三翻四震举例说明
· 13.5K Star ! Fish Speech Windows本地搭建,能否达到官方的级别?强烈推荐
· 文生图提示词prompt详解
· 第一性原理以及第一性原理是怎么帮马斯克成为首富的
· Comfyui工作流原理 你都了解吗
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· 【NLP技术分享】文本生成评价指标的进化与推翻
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
微调
【
大
模型微调】 Llama 2 :对话模型的全过程微调
为了提高性能,他们实施了几项改进措施,包括增强
数
据
清洗、更新
数
据
混合方式、训练更多记号
数
量,并且扩
大
上下文长度。
大模型
真格基金
大
模型能力测试问题集---进阶篇
同时,鉴于随着参
数
和
数
据
规模增
大
,
大
模型会涌现出新能力,与这些新能力相关的测试集也在不断增加。
中文
评测
大模型
真格基金
大
模型能力测试问题集---基础篇
同时,鉴于随着参
数
和
数
据
规模增
大
,
大
模型会涌现出新能力,与这些新能力相关的测试集也在不断增加。
大模型
训练
中文
全球学术界知名学者教授信息
大
盘点(全)
本文是学术
大
佬资料整理得合集(共计86位),他们都是自然语言处理(NLP)方面得权威专家。
AI大佬
知名学者
视频
国产视频制作之光-可灵:提示词
大
全整理
大
家共同整理的提示词: 【特别感谢无私分享的朋友】 1 .
可灵
kling
视频
LLM
自己电脑上跑
大
语言模型(LLM)要多少内存?
7B代表这个模型文件
大
约有7 billion / 70亿个参
数
,一般参
数
量越高的模型能力越强。
大语言模型
运行
使用stable diffsion对老照片进行AI高清放
大
修复
推荐0.5-0.8 4、CodeFormer 强度 (0 = 效果最强,1 = 效果最弱) 推荐0.2-0.5 CodeFormer 是增加细节的,但AI增加的细节过多可能会让原图变的不真实,可根
据
需要调整可见度和强度
SD
高清
老照片修复
开源
如何下载及使用通义千问7B开源
大
模型
阿里云开源通义千问70亿参
数
模型,包括通用模型Qwen-7B和对话模型Qwen-7B-Chat,两款模型均已上线ModelScope魔搭社区,开源、免费、可商用,欢迎
大
家来体验。
通义千问
Prompt
会议纪要类提示词
大
全-最全会议纪要prompt
请根
据
以下会议资料,整理会议的关键信息,包括: 会议主题、参与人员、讨论议题、关键观点和决策。
prompt
提示词
开源
字节推出开源绘画
大
模型SDXL-Lightning,秒级出图
这是因为其所有两
大
核心业务——头条和抖音(海外为TikTok)均对AI有强烈的需求。
sdxl
字节
绘画
ComfyUI
AA
大
佬新作:ComfyUI整合包,打造极简解决方案
引言: Stable Diffusion作为一种强
大
的图像生成技术,受到了广泛的关注和应用。
comfyui
文生图
工作流程
AI+智能客服:
大
模型可落地的最成熟场景之一
例如,
数
据
加密:确保用户
数
据
传输和存储的安全。
ai
客服
心理
万字长文,
大
语言模型如何宣告心理学的死亡?
LLM的零样本能力来自于原始
数
据
到表征
数
据
的相关性连接,以及作为表征
数
据
内部相关性连接的推理规则和推理方法。
大语音模型
LLM
llm-action:让天下没有难学的
大
模型
而利用AI集群,使深度学习算法更好地从
大
量
数
据
中高效地训练出性能优良的
大
模型是分布式机器学习的首要目标。
大模型
LLM
微调
大
模型高效微调:🤗 PEFT 使用案例
PEFT方法仅微调少量(额外的)模型参
数
,显著降低了计算和存储成本,因为对
大
规模PLM进行完整微调的代价过高。
大模型
<
...
23
24
25
26
27
28
29
30
31
32
...
>
1
2
4
5
6
7
8
9
100