首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· GitHub狂飙3万star的LLM公开资料 - 大模型入门教程
· 用so-vits-svc-4.1进行音色转换的极简教程!
· Github上Star数最多的大模型应用基础服务:Dify 深度解读
· 惊艳推荐!8款好用又免费的文本转语音TTS工具
· 【TTS语音克隆开源最强王者】5款爆火开源模型(Fish、F5、GPT、CosyVoice、MaskGCT)效果对比,等你来评!
· 清华大学ChatGLM团队发布AI Agent能力评测工具AgentBench:GPT-4是全能战士,超越所有模型
· Insanely Fast Whisper:超快的Whisper语音识别脚本
· 超详细的 Stable Diffusion ComfyUI 基础教程(二):文生图基础流程
· 耗时7天,终于把15种ControlNet模型搞明白了
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
LLM
确实很神奇! 通过 Prompt 中加入“这件事对我的事业至关重要”这样的情感激励可以提升 LLMs 的表现
我们的自动实验表明llm掌握了情商,并且他们的表现可以通过情绪提示(我们称之为“EmotionPrompt”,将原始提示与情绪刺激相结合)得到改善,例如,指令诱
导
的相对表现提高了8.00%,BIG-Bench
Prompt
大模型
情感激励
拒绝996,想出海赚美元?这7个GPT方案绝对靠谱!
邮件营销 在海外,电子邮件是与客户保持联系的重要工具,而高质量的邮件内容则可以提高转化率,并且还可以
维
护与客户的长期关系。
ChatGPT
写作
写作
深入探讨:Agent全自动写作长篇小说技术原理解析
「gpt-author」的核心
思
想其实并不复杂。
Agent
开源
OpenAI 开源语音识别 Whisper 的使用体验怎么样?
此外,Buzz 还支持将识别结果
导
出为 TXT 格式的纯文本或通用的 SRT 字幕文件,非常便捷。
生成式AI
大模型
微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型
寻求反馈:可以寻求他人的反馈和建议, 例如在线编程社区、编程
导
师等,他们可以帮助你发现问题并及时纠正。
大模型
微调
ChatGPT
ChatGPT提示工程5篇合集 - 吴恩达和OpenAI出品
ensp; 原则一:编写清晰、具体的说明 · 原则二:给予模型
思
考的时间
ChatGPT
prompt
AI知识库总是不准?教你无脑用GPT整理结构化数据集...
比如典型的Langchain-ChatGLM的架构
图
,加载文件 -> 读取文本 -> 文本分割 -> 文本向量化 -> 问句向量化 -> 在文本向量中匹配出与问句向量最相似的
GPT
教程
保姆级教程:手把手教你创建GPTs角色应用
“Capabilities”定义应用的能力,如联网、
图
像生成等。
GPTs
教程
ChatGPT
ChatGPT提示工程5篇合集(五):ChatGPT提示工程 - 邮件回复、营销文案
FYI:这些产品的整体质量已经下降了,因此他们有点依靠品牌认可和消费者忠诚度来
维
持销售。
prompt
提示词
大模型
大模型应用实践:用LLaMA 2.0, FAISS and LangChain实现基于自由知识问答
该库的核心
思
想是我们可以将不同的组件“链接”在一起,以创建围绕LLMs的更高级用例。
开源模型
RAG
RAG与Long-Context之争—没必要争
你能部署1M Token的大模型服务吗 KV Cache的计算方式是4*Batch Size*模型层数L*注意力
维
度H*KV Cache长度,要硬支持1M长度的话,确实有些可怕。
RAG
Long-Context
大模型
OpenAI
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
这就
导
致了模型的能力必须迁就数据。
智谱
AI
工具
HAI-Chat:高效且轻量的一键式 RLHF 训练工具
如下
图
所示: 这样,奖励模型可以用来为后续模型生成的新响应打分,从而在后续的训练中引
导
模型生成更符合人类偏好的内容。
HAI-Chat
RLHF
贝叶斯定理的颠覆:为什么你永远说服不了阴谋论者?
我们以一个新的关于 的先验胜率开始,并称之为 (撇号是数学中常见的符号,意
思
是“类似但不相同”),它表示 的胜率。
贝叶斯定理
ChatGLM
chatglm3基础模型多轮对话微调
微调效果 作为没有经过人类意
图
对齐的模型,ChatGLM3-6B-Base 不能用于多轮对话。
ChatGLM
微调
<
...
72
73
74
75
76
77
78
79
80
81
...
>
1
2
4
5
6
7
8
9
100