首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· PPT又又有新突破了!智谱AI代码流造PPT
· 中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
· 汉王天地大模型
· 阿里Qwen3系列模型惊艳亮相
· clone-voice:一键克隆声音,开源AI技术让声音创作更便捷、更个性化
· LlamaIndex的QueryPipeline在实现RAG应用后,Agent应用也可以实现了(附开发示例)
· AIChatru.ru
· 24年首篇离奇论文:加点噪声,RAG效果翻倍?!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 包阅AI-免费AI阅读翻译神器!
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
开源
大
语言模型完整列表
LLM 通常基于神经网络模型,使用
大
规模的语料库进行训练,比如使用互联网上的海量文本
数
据
。
开源模型
大语言模型
做
大
模型需要的环境设置
所以我根
据
官网指示进行了添加: conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
开发环境
AIGC
AIGC系列之一-一文理解什么是Embedding嵌入技术
Embedding的目标是在
大
数
据
中体现相关性的主体,通过Embedding向量表征学习到主体的向量信息,使用向量度量公式也能体现出主体间的相关性。
AIGC
Embedding
嵌入技术
Sora
中学生能看懂:Sora 原理解读
现在,让我们将这个过程与Sora处理多样化视觉
数
据
的方式进行对比。
Sora
原理
工具
20个常见AI绘画工具
大
汇总(含免费版哦~)
AI绘画通常利用深度学习算法、神经网络[1]和已有的
数
据
集[2],如生成对抗网络(Generative Adversarial Networks,GANs)[3]和神经风格迁移[4]等技术,来学习和理解绘画的特征
文生图
LLM
大
模型LLM基础|分词
· 重复该过程直到达到预定义的词汇
大
小或无法合并为止。
开源模型
开源
GPT-4o实时语音方案提供商Livekit开源voice agent:轻松处理音视频流
轻松访问 LiveKit WebRTC 会话并处理或生成音频、视频和
数
据
流。
voice
agent
开源
音视频
大
模型:泛化即智能,压缩即一切!
同样地,对于模型来说,如果我们训练它在
大
量的多样化
数
据
上进行学习,它就能够更好地适应新的、未曾见过的
数
据
。
泛化
大模型
LLM
PymuPDF4llm:PDF 提取的革命
PymuPDF4llm 的出现,为 PDF 提取领域带来了一场革命,它不仅提供了强
大
的功能,还以开源的形式为开发者和
数
据
爱好者提供了自由和灵活性。
PymuPDF4llm
PDF
面向知识图谱的
大
模型应用
这涉及到利用各种计算策略来平衡
大
型关联
数
据
集分析的效率、准确性和完整性。
知识图谱
大模型
回望做
大
模型一年后的感悟
大
模型最重要的三要素:算力、
数
据
、人,国内都不是很ready。
大模型
感悟
写作
提高写作能力的90个prompt
大
全
迭代细化 为作者制作 ChatGPT 提示的过程通常涉及根
据
初始响应进行细化。
prompt
写作
大
模型应用设计的10个思考
5
数
据
质量至上,LLM的应用与高质量
数
据
息息相关
大
模型确实展现出了非凡的能力,如同“受过良好教育的”个体,但在实际应用中,它们仍然缺乏某些背景和主动性。
大模型
应用
ollama本地部署自然语言
大
模型
大
模型已经发布很久,网络上的
大
模型形形色色,现在已然是群英荟萃,那么,如何在本地运行一个
大
模型?
ollama
语言大模型
部署
开源
最强开源
大
模型Llama 3,在扎克伯格设想中其实是这样的
4、Llama 3模型之所以能够成为目前最强
大
的开源
大
模型,主要是因为这四
大
关键要素:模型架构、预训练
数
据
、扩
大
预训练规模、指令微调。
Llama
3
大语言模型
<
...
15
16
17
18
19
20
21
22
23
24
...
>
1
2
4
5
6
7
8
9
100