首页
Ai 资讯
Ai 知识库
创作魔法
绘画魔法
视频魔法
训练魔法
Ai术语
Ai提示词
Ai创意图
Ai工具
Ai视频
VIP专区
VIP专区
登录
AI魔法学院客服
最新
排序
收藏
全部
七天内
一个月内
选择分类
全部
写作魔法
绘画魔法
视频魔法
训练魔法
其他
AI工具
VIP视频
推荐阅读
换一批
· 数字人之声音克隆:无样本,1分钟样本完美克隆声音,开源
· Stable Diffusion 30种采样器全解!
· 了解Kimi必看的26个问题 | Kimi系列文(二)
· 不会PS也能做神图?豆包AI绘画全解析,让你的创意秒变艺术品!
· PPT又又有新突破了!智谱AI代码流造PPT
· 为你推荐开源项目:Meridian——专属个人情报站!
· ComfyUI安装及生成第一张图
· Midjourney AI绘画美女提示词分享一
· StreamingLLM 框架:利用最新标记让 AI 记住你的话、创作长篇小说,探索无限长度文本
· 20个ChatGPT超实用的提示词(Prompt)
热门标签
Stable Diffusion
stable diffusion
Midjourney
midjourney
ComfyUI
comfyui
ChatGPT
chatgpt
大模型
数字人
开源
人工智能
Sora
文心一言
天工
零一万物
知海图
星火
文心一格
混元
通义千问
盘古
言犀
ChatGLM
Github
微软
热门标签
免费
教程
插件
免费
教程
插件
免费
教程
插件
文章列表
Prompt
Prompt小技巧(18):万能Prompt
) ·
问
题(你
提
出相关
问
题,询
问
我需要哪些额外信息来改进Prompt) 3.
prompt
大模型
写作
AI写作不如意?万字长文深度剖析背后原因
对于AI能力范围内的任务,使用工具的顾
问
在生产力、速度和质量上都有了显著
提
升。
AI写作
大模型
人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源
在专注模式下,通过对当前项目代码的分析,
提
供代码
提
示与补全功能,从而
提
高编程效率。
开源模型
AI编程
大模型
基于Ollama本地部署谷歌开源Gemma大模型!
这次发布的Gemma不仅仅只有2B 和 7B这两种规模,实际上是发布了Gemma系列(经过预训练的变体和指令优化的变体,大大小小50多种),Gemma 模型非常适合各种文本生成任务,包括
问
答、总结和推理
ollama
gemma
qwen
ChatGPT
Ollama的本地化又一图形工具ChatOllama,让你轻松玩转ollama,ChatGPT
浏览器访
问
http://localhost:8000,会
提
示{"detail":"Not Found"}。
ChatOllama
安装
实测:本地跑llama3:70B需要什么配置
展示一波LLM排名这么帅还不要钱,就
问
你想不想要 也许从此强大的模型不再只是厂商云端的特权,现在每个人都可以在本地部署Llama 3。
llama
GPU内存
大模型
大模型压缩首篇综述来啦~
它通过在训练期间从学生模型中采样输出序列来处理分布不匹配
问
题,并通过优化替代的散度,如反向KL散度,来解决模型不足的
问
题。
大模型
【NLP技术分享】文本生成评价指标的进化与推翻
直接这样算, 会存在很大的
问
题.
开源模型
大模型
大模型外挂知识库优化技巧-如何更有效的利用召回的文档
外挂数据库最简单的使用方式是,根据用户的
问
题,从数据库中召回若干条相关的文档片段,将文档片段和用户
问
题一块输入到大模型,让大模型根据文档片段回答用户的
问
题。
大模型
请以“亮相”为题目写一篇记叙文,要求不少于700字。
我用流畅的语言、抑扬顿挫的语调、清晰的声音向全校师生汇报了我对环保
问
题的看法和建议。
中文
大模型
训练
RAG
RAG——使用检索增强生成构建特定行业的大型语言模型
你可以
问
一个
问
题,“告诉我关于一棵大树的事情。”
大模型
Prompt
写不好Prompt?可以先写个粗糙版本,然后让GPT帮助优化。
有哪些案例研究或成功故事可以作为学习和灵感的来源,特别是那些展示了Prompt编写在解决复杂
问
题或
提
高工作效率方面的应用?
Prompt
GPT
Sora
探索Sora的魔法世界:功能展示、原理解析、未来市场影响大猜想!
当然Sora作为一个视频模拟器目前还展现出许多
问
题。
视频生成
sora
大模型
百川智能RAG方案总结:搜索出生的百川智能大模型RAG爬坑之路
2) 优化检索链路:采用稀疏检索+向量检索+Rerank结合的方法,来
提
高检索的召回率和准确率。
RAG
大模型
开源
Giraffe:世界上第一个商业可用的32K长上下文开源LLM(基于Llama-2)
也就是说,我们
提
出了以下一般性观察: · 线性插值/缩放似乎是增加模型上下文长度的最稳健的方法。
开源模型
<
...
49
50
51
52
53
54
55
56
57
58
...
>
1
2
4
5
6
7
8
9
100