首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
· 什么是极限、导数、微分与积分(通俗易懂)
· Stable Diffusion 快速创作角色三视图
· Midjourney 实现角色一致性的新方法
· 用so-vits-svc-4.1进行音色转换的极简教程!
· 换脸软件 FaceFusion 保姆级教程
· GLM4 开源了!!!还有多模态
· 7.1k Star!RAGFlow:最新开源OCR+深度文档理解的RAG引擎、大海捞针测试、降低幻觉、服务化API集成进业务!
· 语音识别的未来已来:深入了解faster-whisper的突破性进展
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
大模型
如何下载及使用通义千问7B开源大模型
pipeline_ins(text) print(result['text']) SFT数据集链接和下载 这里使用魔搭上开源的数据集finance_en(包含68912条金融数据)作为
微
调数据集
通义千问
盘点字节跳动最新的AI应用
字节跳动在本次AI浪潮中推出了多个AI应用,
分
别有:1️⃣ 来自Flow的豆包(AI问答、写作助手,海外名称为Cici)、话炉(AI虚拟陪伴产品,海外名称为BageBel)、PicPic
字节
AI工具
盘古
华为盘古画画3.0发布 | PanGu-Draw:业界最大的中文文生图模型,效果YYDS!
(b)
分
辨率提升训练从512x512开始,然后是1024x1024
分
辨率,丢弃较低
分
辨率的数据,并在所有时间步长上以较高的训练成本和单模型推理提供适度的效率。
PanGu-Draw
文生图
如何改善你的回测方法,提高策略的未来收益
作者
分
析了三种主要的回测方法,详述了各自的优势和挑战。
回测方法
大模型
从零开始了解AI大模型 - 概念篇:一文带你走进大模型世界
人工智能是计算机科学的一个
分
支,它致力于理解智能的本质,并生产出一种能够以人类智能相似的方式做出反应的智能机器。
大模型
大模型
预训练对话大模型深度解读
前段时间看到吴军博士的一个
分
享:”ChatGPT不算新技术革命,带不来什么新机会“,里面讲到一个道理,这些都是资本家操作出来割大家韭菜的。
大模型
CodeFuse开源编程大模型-您的开源编程助手
在评测中,CodeFuse的得
分
超过了GPT-4和WizardCoder-34B。
大模型
AI编程
如何用大语言模型构建一个知识问答系统
Fine-Tuning 使用下游特定领域的知识对基础模型进行
微
调,改变神经网络中参数的权重。
知识库
SQL
RLHF 在 Text2SQL 领域中的探索
91.2,EM 得
分
第一也是 MiniSeek 提交的 81.5,因为运用了 GPT-4 以及一些其他的 trick,所以得
分
最高。
Text2SQL
RLHF
大模型
EduChat:教育行业垂直领域大模型
通过在教育语料库上进行预训练来学习领域特定的知识,并通过在设计的系统提示和指令上进行
微
调来刺激各种技能的使用。
教育
大模型
垂直领域
大模型
国产AI大模型哪家强?十大维度横评四款主流大模型!
一、终端支持在大模型支持的平台丰富度方面,文心一言目前支持网页端、安卓 /iOS App,暂时没有桌面 / Mac 版和
微
信小程序。
开源模型
LLM
收藏!万字长文聊聊LLM Agents的现状,问题与未来
SFT即监督
微
调(Supervised Fine-Tuning)。
LLM
Agents
大模型
大模型推理能力增强方法总结
CoT 就是把一个多步骤推理问题,
分
解成很多个中间步骤,
分
配给更多的计算量,生成更多的 token,再进行求解。
推理能力
大模型
Microsoft
来自Microsoft Build 2023:大语言模型是如何被训练出来的
关于这部
分
的内容有一些十
分
有价值的信息: 1.
大模型
如何将 GPT 幻觉发生率从 20% 以上降低到 2% 以下
我们没有进行
微
调,而是结合使用提示链接和预处理/后处理来将幻觉率降低一个数量级,但它确实需要 3-4 倍的 OpenAI 调用次数。
大模型
<
...
28
29
30
31
32
33
34
35
36
37
...
>
1
2
4
5
6
7
8
9
100