AI

汇聚主流开源与精选AI模型,预置优化环境,助您快速启动项目。

封面/LOGO
名称
简介描述
推荐配置
操作
DeepSeek-OCR-2
DeepSeek-OCR 2 是 DeepSeek 团队开源的新一代 OCR 模型,该模型能够像人类一样带着逻辑去阅读文档
推荐配置:建议使用 GPU 加速,显存 8GB 以上。
vLLM-Omni
vLLM项目团队推出了vLLM-Omni框架,这是一个专门为全模态模型设计的高性能推理系统
推荐配置:多卡 GPU 环境,显存 16GB 以上,适合大模型推理与服务化部署。
Crawl4AI:基于AI的网络爬虫和数据抓取工具
基于AI的网络爬虫和数据抓取工具,支持智能网页内容提取
推荐配置:GPU 显存 8GB 以上,内存 16GB 以上,配合向量数据库使用效果更佳。
PDFMathTranslate-next
基于 AI 完整保留排版的 PDF 文档全文双语翻译
推荐配置:GPU 16GB 显存以上,适合批量论文与教材处理场景。
Deepseek orc webui在线图片识别文字pdf文件转文字
在线图片识别文字pdf文件转文字,七种识别文字
推荐配置:GPU 8GB 显存以上,适合部署在私有服务器或本地环境。
DeepSeek-OCR
上下文光学压缩
推荐配置:GPU 8GB 显存,CPU 8 核以上,可部署为在线 OCR 服务。
PDFMathTranslate
基于 AI 完整保留排版的 PDF 文档全文双语翻译,支持 Google/DeepL/Ollama/OpenAI 等服务
推荐配置:GPU 8GB 显存以上,内存 32GB,适合数学及理工科文档处理。
DeepSeek-R1-0528-Qwen3-8B 8B
DeepSeek R1 模型进行了小版本升级,通过利用增加的计算资源并在后训练期间引入算法优化机制
推荐配置:单机 4 卡 4090,内存 300GB 以上。
LLaMAFactory-0.9.2.dev-DeepSeek-R1-Distill
使用LLaMA-Factory在多张RTX4090上微调DeepSeek-R1-Distill系列模型
推荐配置:多卡 4090 环境,显存 24GB 以上,适合训练与微调场景。
KTransformers-DeepSeek-R1
建议4卡4090,内存300G以上!KTransformers 使用说明文档,目前支持Q4级别的deepseek的QA对话
推荐配置:GPU 4090 以上,内存 128GB 以上,适合高并发推理服务。