HG-ha/MTools

每日信息看板 · 2026-02-25
开源项目
Category
github_search
Source
0
Score
2026-02-25T01:55:29Z
Published

AI 总结

<div align="center"> <img src="./src/assets/icon.png" alt="MTools Logo" width="128" height="128"> MTools 一款功能强大、界面精美的现代化桌面工具集 Python Flet License ![Platform]…
#GitHub #repo #开源项目 #语音 #视频

内容摘录

<div align="center">

<img src="./src/assets/icon.png" alt="MTools Logo" width="128" height="128">
MTools
一款功能强大、界面精美的现代化桌面工具集

Python
Flet
License
![Platform]()
Downloads

集成图片处理、音视频编辑、AI 智能工具、开发辅助等功能,支持跨平台GPU加速

</div>

---
快速开始
方式一:下载发布版(推荐)

直接下载已编译好的可执行文件,**无需安装 Python**:
**Releases 下载**
**国内用户下载**

支持平台及预编译版本说明:
✅ Windows 10/11 (x64)
MTools_Windows_amd64:体积最小,并且支持nvidia、amd、intel显卡加速,但不支持手动管理显存,如果您的显存低于8GB或发布时间早于nvidia30系,尽量使用此版本
MTools_Windows_amd64_CUDA:体积中等,使用CUDA进行加速,但需要手动安装CUDA 12.x + cuDNN 9.x
MTools_Windows_amd64_CUDA_FULL:体积最大,内置完整的CUDA加速环境,无需手动安装CUDA和cuDNN
⚠️ macOS (实验性支持)
MTools_Darwin_arm64:只支M系列芯片,支持Core ML加速
⚠️ Linux (实验性支持)
MTools_Linux_amd64:体积最小,不支持GPU加速
MTools_Linux_amd64_CUDA:体积中等,使用CUDA进行加速,但需要手动安装CUDA 12.x + cuDNN 9.x
MTools_Linux_amd64_CUDA_FULL:体积最大,内置完整的CUDA加速环境,无需手动安装CUDA和cuDNN

下载后解压即可使用!
方式二:从源码运行
环境要求
**操作系统**: Windows 10/11、macOS 或 Linux
**Python**: 3.11+
**包管理器**: uv - 推荐使用的 Python 包管理器
一键安装依赖

启用 CUDA GPU 加速(默认已启用平台通用加速):
📘 **版本说明**:
**普通版本**:支持NVIDIA、AMD、Intel显卡加速,支持coreml加速,对 NVIDIA GPU 的性能释放可能不如CUDA系列
**CUDA 版本**:使用系统安装的 CUDA 和 cuDNN,体积小但需要预先配置 CUDA 环境(CUDA 12.x + cuDNN 9.x)
**CUDA_FULL 版本**:内置完整的 CUDA 和 cuDNN 运行时库,无需额外配置,开箱即用,但体积较大(+2GB)
💡 **编译和版本说明**:如需将项目编译为独立可执行文件,请参考 📘 **完整编译指南**

---
性能优化
GPU 加速支持

本项目的 AI 功能支持 GPU 加速,可大幅提升处理速度,并且提供 CUDA 以及 CUDA_FULL 编译版本
平台特定说明
AI 功能(ONNX Runtime)

| 平台 | 默认版本 | GPU 支持 | 说明 |
|------|---------|---------|------|
| **Windows** | onnxruntime-directml==1.22.0 | ✅ DirectML | 自动支持 Intel/AMD/NVIDIA GPU |
| **macOS (Apple Silicon)** | onnxruntime==1.22.0 | ✅ CoreML | 内置硬件加速 |
| **macOS (Intel)** | onnxruntime==1.22.0 | ⚠️ CPU | 无 GPU 加速 |
| **Linux** | onnxruntime==1.22.0 | ⚠️ CPU | 可选 onnxruntime-gpu (CUDA) |
💡 **提示**:DirectML 版本不支持限制显存,只有CUDA可限制显存大小

---
致谢
代码参考

本项目在开发过程中参考和使用了以下开源项目的代码:
**sherpa-onnx** - 语音识别与合成框架,提供高性能的离线语音处理能力
**PPOCR_v5** - 高精度OCR识别引擎
**FunASR** - 语音识别工具包
**ICP_Query** - ICP备案查询功能实现
**HivisionIDPhotos** - AI证件照
**video-subtitle-remover** - AI去水印
外部服务

本项目使用了以下外部服务:
**ModelScope** - AI模型托管与分享平台
**imagetourl.net** - 图片转URL服务
**catbox.moe** - 文件上传服务
**gh-proxy.com** - GitHub加速代理
服务器赞助

感谢以下赞助商为本项目提供服务器支持:
**林枫云 www.dkdun.cn** - 提供稳定的云服务器资源

---

<div align="center">
Star History

Star History Chart

---
支持项目

如果这个项目对你有帮助,欢迎通过以下方式支持:
给项目一个 ⭐ Star
分享给更多需要的人
提交 Issue 和 Pull Request
请作者喝杯咖啡 ☕

<details>
<summary>打赏支持</summary>

<br/>

你的支持是项目持续维护的动力!

<div align="center">
 <img src="./assets/wechat_reward.jpg" alt="微信赞赏码" width="300"/>
 <p><b>微信赞赏</b></p>
</div>

</details>

---

**Made with ❤️ using Python & Flet**

👨‍💻 **作者**:HG-ha · 加入Q群 1029212047

**如果这个项目对你有帮助,请给个 ⭐ Star 支持一下!**

</div>