首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 你的下一个浏览器,可以是豆包电脑版!
· 我去,找到一个Github上非常优秀的AI项目,可控制鼠标、键盘,模拟人类操作,太丝滑,收藏~~~
· 耗时7天,终于把15种ControlNet模型搞明白了
· 制作可爱的表情包
· 让你不怕任何事的3个顶级思维(建议收藏)
· Midjourney各国的AI新娘
· 铁锅炖blender+ComfyUI配置,更改模型地址
· 从第一性原理看大模型Agent技术
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
RPA机器人实现网页自动翻页功能
RPA旨在通过模拟和整
合
人类用户在数字系统中的交互,实现对现有应用程序的自动化操作,从而提高工作效率、减少错误、降低成本,并释放员工精力,让其更多地从事创造性和战略性工作。
RPA
自动
RAG
LangChain: LLM 应用聚焦的两大方向,RAG 和 Agents
接入的方式也大同小异,首先检索外挂数据源中与用户给出的上下文相关的内容,
合
并之后做 embedding 给到所用的 llm ,最后由 llm 根据模型自己的认知,做出回答。
大模型
开源
开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex
其核心模型由包含编程语言、编码模式和最佳实践的大规模数据
集
训练而成。
开源模型
SDXL
造梦师手记:SDXL迎来了AI插画师
此为经验法则,即生成图像的总分辨率应高于训练
集
图像的总分辨率,且同时低于训练
集
图像总分辨率的 1.5 倍,以防止模糊和畸变。
文生图
漫画
大模型
中文通用大模型最全汇总
THUDM/ChatGLM2-6B 简介:基于开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,引入了GLM 的混
合
目标函数
大模型
开源模型
Meta
如何微调Meta Llama-3 8B
from datasets import load_dataset 加载数据
集
1.
Meta
Llama
3
大模型
大模型
大模型压缩首篇综述来啦~
论文链接:https://arxiv.org/pdf/2308.07633.pdf 模型压缩涉及将大型资源密
集
型模型转化为适
合
在受限移动设备上存储的紧凑版本。
大模型
ChatGLM
使用自己的数据训练清华ChatGLM2-6B 模型
下面以自己的数据
集
为例介绍代码的使用方法。
ChatGLM2-6B
大模型
大模型应用发展的方向|代理 Agent 的兴起及其未来(上)
人类行为可以映射到一个隐含选项
集
的选择,这有助于将所有信息解释为一个统一的形式。
大模型
全球生成式 AI 应用全景图
,近年来大模型和优化算法的成熟能够基于大量音乐数据
集
训练和优化算法来创建AI 虚拟歌手,更加趋近于真人发声效果,典型应用如:AI孙燕姿; 7.其他:从生物蛋白质分子模型到其他垂直领域,许多行业都在进行垂类模型的研发
大模型
腾讯
腾讯 IMA: AI 智能教学新助手
一、精准信息检索 腾讯 IMA 拥有强大的搜索功能,其优势不仅在于能够快速准确地回答常见问题、创作各类文字内容以及生成精美图片,更在于它深度整
合
了微信公众号文章生态,能够从全网海量信源中筛选出最具价值的信息
腾讯
IMA
智能教学
LLM
如何成为LLM提示词大师!「大语言模型的底层心法」
这个训练过程以及使用的大规模数据
集
使LLM像Claude和GPT-4这样的模型嵌入了相当多的世界知识。
大模型
提示词
大模型
关于大模型驱动的AI智能体Agent的一些思考
AutoGPT, GPT-Engineer and BabyAGI等项目的火爆,以LLM(large language model) 作为核心控制器来构建agents,通过
集
成不同系统
大模型
LLM
最详细的文本分块(Chunking)方法——可以直接影响基于LLM应用效果
在某些情况下,比如使用具有32k上下文窗口的GPT-4时,拟
合
块可能不是问题。
RAG
大模型
ChatGLM
【万字长文】LLaMA, ChatGLM, BLOOM的参数高效微调实践
下面是一些基于LLaMA衍生出来的大模型: Alpaca:斯坦福大学在52k条英文指令遵循数据
集
上微调了7B规模的LLaMA。
大模型
微调
训练
<
...
35
36
37
38
39
40
41
42
43
44
...
>
1
2
4
5
6
7
8
9
100