首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· Suno音乐新手指南(手把手完整版教程)
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· 最新最强开源模型Qwen3本地运行指南!Windows+ollama+chatwise轻松搞定
· AI声音克隆 | 最全最简教程(权威版)
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Prompt逆向工程:轻松复刻OpenAI“神级”提示词
· 国内厂商语音识别与Whisper评测:现状与概况对比
· 十大开源语音识别项目
· AI换脸工具:facefusion使用心得
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
OpenAI
两天star量破千:OpenAI的Whisper被蒸馏后,语音识别数倍加速
懂技术的小伙伴也可以寻找其他替代方案,比如语音转文字模型 Whisper、文字翻译 GPT、声音克隆 +
生
成
音频 so-vits-svc、
生
成
符合音频的嘴型视频 GeneFace++dengdeng。
语音
HeyGen
微软
BGE M3-Embedding:智源最新发布的text embedding模型,多语言检索效果超过微软跟openai
其三是合
成
得到的监督数据,利用GPT3.5为来自Wiki跟MC4的长文本
生
成
对应的问题,用于缓解模型在长文档检索任务的不足,同时引入额外的多语言数据。
BGE
M3-Embedding
多语音检索
谷歌
长窗口大战要终结了?谷歌魔改Transformer,推出了“无限注意力”
Infini attention 让基于Transformer的模型能够在有限的内存占用和计算量下高效处理无限长的输入序列,它把压缩内存集
成
到标准的注意力机制中,并在单个Transformer块内构建了掩码局部注意力和长期线性注意力机制
大模型
上下文
ChatGPT
让ChatGPT帮我写SQL
https://github.com/whoiskatrin/sql-translator.git //安装依赖 cd sql-translato rnpm install //
生
成
应用程序
SQL
大模型
基于大模型(LLM)的Agent 应用开发
4.1 Autogen 的典型示例 Autogen 使用Multi-Agent会话启用复杂的基于 LLM 的工作流,典型的示例如下: 左图代表基于AutoGen
生
成
的可定制Agent
大模型
Agent
大模型
大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免
新研究假设这种排序效应是由于逆转诅咒造
成
的。
大模型
大模型
深入探秘:百川7B大模型的训练代码解析,揭秘巨无霸语言模型背后的奥秘
(二、软件和部署) 本期开始,为大家讲下这些大模型是怎么训练
生
成
的 首先,为了确保本系列的讲解流畅,我将直接深入讲解大型语言模型的代码。
大模型
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
2、带目标的继续优化 我们继续让它优化: 还有没有优化的空间,我的目标是:在实际工作中能更好的使用,同时
成
为同行中的专家。
Prompt
GPT
开源
开源新标杆,千问Qwen2系列模型发布,全面超越LLama3
此外,Qwen2 系列模型在安全性方面也进行了改进,通过测试显示其在
生
成
有害响应的比例上优于或与其他模型相当。
qwen
千问
开源
大模型
【手把手带你微调 Llama3】 改变大模型的自我认知,单卡就能训
AI在手”,“<AUTHOR>”替换
成
“AI大模型在手公众号”,文本替换后的效果如下: [ { "instruction": "你好
Llama3
对话问答模型
大模型
大模型时代-行业落地的再思考
这类做法只是对大模型的
生
搬硬套,对解决领域问题和传统方法并没有很大的帮助。
大模型
大模型
百川智能正式发布130亿参数通用大语言模型百川大模型(Baichuan-13B-Base)
7B版本采用RoPE编码方式,而13B使用了ALiBi位置编码技术,后者能够处理长上下文窗口,甚至可以推断超出训练期间读取数据的上下文长度,从而更好地捕捉文本中上下文的相关性,让预测或
生
成
更准确。
大模型
中文
手把手!做Llama3的MoE专家混合模型!底层原理怎样的?做自己的MoE模型?需要多少算力?
把Llama3和Phi-3组
成
MoE!
MoE
专家混合模型
微调
LLM微调神器Lamini,疯狂获星1.9k,免费可用!!
免费,适用于小型 LLM; · 迅速,10-15 分钟; · 很大,无限大小的 prompt,比最大的 prompt 多 1000 倍以上的空间; · 学习,检索增强
生
成
大模型
提示词
提示词框架:BROKE
在通往终点的路上,有很多小任务和挑战需要你完
成
。
BROKE
提示词
<
...
91
92
93
94
95
96
97
98
99
100
>
1
2
4
5
6
7
8
9
100