首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· 赛博牛马,智谱 AI,悄悄出了一个 AI PPT
· Suno音乐新手指南(手把手完整版教程)
· PPT又又有新突破了!智谱AI代码流造PPT
· Ollama还是vLLM?深度解析四大顶级LLM服务框架:性能、特性与技术选型指南
· 国产“小钢炮”MiniCPM3-4B:小参数,大能量!
· 实测:本地跑llama3:70B需要什么配置
· 一招让你的 AI 图像更惊艳!DALL-E 3 自定义指令魔法
· AI创作 |如何通过GPT进行漫画视频的故事改写
· SD的老舅ComfyUI来了,节点式工作流,分部控制出图
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
开源
5个最佳开源RPA框架
目前,RPA是提高效率减低
成
本的一个重要技术。
开源模型
智能自动化
歪理大集合,谁也跑不了
把模型训练看
成
消费端,把人和物的所有行为看
成
生
产端,那消耗的速度显然大于
生
成
的速度。
大模型
这个方法可以让AI写出的文章完全去掉GPT味儿!
但事实是,AI工具的准确性和创造力还是比较缺乏的,经过测试,他
生
成
超过1500字,基本就开始绕来绕去了。
ChatGPT
写作
Meta
各个语种互相翻译:Meta推出NLLB-200 AI模型,可实现200种语言互译
Meta AI在发布开源大型预训练模型OPT之后,再次发布最新
成
果NLLB。
翻译
大模型
人工智能
Finchat:一个基于AI人工智能的金融数据分析工具,让你有一个私人投资助理!
Finchat的使用非常简单,你只需要在网页或手机上打开finchat.io,输入你想要查询的问题,就可以看到Finchat为你
生
成
的回答。
用户
finchat
Prompt
一个让GPT重复自问自答的Prompt
已充分考虑各种要素,没有什么要补充"是指: - 每次回答,可以从用户需求、JTBD、市场趋势、竞争对手分析、技术可行性、
成
本效益分析等产品设计方面进行考虑 - 每次回答,请考虑回答的深度和广度。
prompt
ChatGPT
实战:如何用AI Agent实现ChatGPT流程化写作,产能翻倍
这样可以确保
生
成
输出的一致性。
Agent
写作
大模型
万字长文,AI大模型的应用实践总结
,例如:文本
生
成
。
大模型
ChatGPT
清华智能体「XAgent」比ChatGPT4.0还好用!
数据分析:展示双环机制的有效性 我们将使用一个简单的数据集iris.zip上传到XAgent,然后让XAgent分析数据集并
生
成
一个报告。
ChatGPT
智能体
Agent
WeChaty:强大的微信个人号机器人SDK
接口的应用场景: - 个人助手:通过 WeChaty 的 Python 接口,开发者可以构建个人助手应用,实现自动回复消息、提醒日程安排、获取实时天气等功能,提升个人工作和
生
活的效率
微信
接口
Prompt
如何看待大型语言模型的Prompt
他们发现,
生
成
的嵌入空间不仅能捕捉语义相似性,还具有某种形式的涌现学习能力——它能够执行“词算术”,这是它未经训练就能做到的事情。
prompt
大语言模型
开源
「Agent」通俗易懂地聊聊AI Agent(附66个开源+44个闭源Agent项目)
你只需要提供一个目标,比如写一个游戏、开发一个网页,他就会根据环境的反应和独白的形式
生
成
一个任务序列开始工作。
大模型
Prompt
掌握Prompt的6心法
这就是要求系统完
成
一个较为专业和复杂的写作任务。
prompt
写作
LLM
实操:基于 Ollama+AnythingLLM 的 AI 超级阅读法
04 辅导阅读,对不懂的部分、高深专业名词进行追问 如果你在阅读文档时遇到了困惑,比如看《
图
利的猫——史上最著名的116个思想悖论》这本书的总结时,感觉有些部分不太对劲,那就不要犹豫,直接问大模型
Ollama
AnythingLLM
阅读
大模型
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
答:Bert 的模型由多层双向的Transformer编码器组
成
,由12层组
成
,768隐藏单元,12个head,总参数量110M,约1.15亿参数量。
大模型
<
...
82
83
84
85
86
87
88
89
90
91
...
>
1
2
4
5
6
7
8
9
100