主库编译
默认编译产物为:libMNN.so
,express/libMNN_Express.so
Linux/MacOS
环境要求
cmake >= 3.10
protobuf >= 3.0
gcc >= 4.9
相关编译选项
MNN_ONEDNN
是否使用oneDNN库来加速卷积运算MNN_AVX512
是否使用AVX512指令MNN_OPENCL
是否使用OpenCL后端,针对AMD GPU设备MNN_CUDA
是否使用CUDA后端,针对Nivida GPU设备MNN_TENSORRT
是否使用TensorRT后端,针对Nivida GPU设备
具体步骤
准备工作 (可选,修改 MNN Schema 后需要)
cd /path/to/MNN ./schema/generate.sh ./tools/script/get_model.sh # 可选,模型仅demo工程需要
本地编译
mkdir build && cd build && cmake .. && make -j8
Windows
环境要求
Microsoft Visual Studio >= 2017
cmake >= 3.13
powershell
Ninja
相关编译选项
同
Linux/MacOS
具体步骤
opencl/vulkan
*(可选)*下载GPU Caps Viewer,你可以通过这个工具来查看本机设备的详细信息(opencl、opengl、vulkan等)
sdk和驱动准备
opencl sdk,将opencl sdk目录的路径加到AMDAPPSDKROOT环境变量
vulkan sdk,将vulkan skd路径加入VULKAN_SDK环境变量,以备cmake查找
编译
64位编译:在设置中找到vcvars64.bat(适用于 VS 2017 的 x64 本机工具命令提示)并单击,打开VS编译x64架构程序的虚拟环境
32位编译:在设置中找到vcvarsamd64_x86.bat(VS 2017的 x64_x86 交叉工具命令提示符)并单击,打开VS交叉编译x86架构程序的虚拟环境
cd /path/to/MNN powershell # 运行该命令从cmd环境进入powershell环境,后者功能更强大 ./schema/generate.ps1 # CPU, 64位编译 .\package_scripts\win\build_lib.ps1 -path MNN-CPU/lib/x64 # CPU, 32位编译 .\package_scripts\win\build_lib.ps1 -path MNN-CPU/lib/x86 # CPU+OpenCL+Vulkan, 64位编译 .\package_scripts\win\build_lib.ps1 -path MNN-CPU-OPENCL/lib/x64 -backends "opencl,vulkan" # CPU+OpenCL+Vulkan, 32位编译 .\package_scripts\win\build_lib.ps1 -path MNN-CPU-OPENCL/lib/x86 -backends "opencl,vulkan"
Android
环境要求
cmake >= 3.10
protobuf >= 3.0
ndk
相关编译选项
MNN_OPENCL
是否使用OpenCL后端,OpenCL后端可以利用GPU加速MNN_ARM82
是否使用Arm82后端,Arm82后端支持低精度(fp16)推理,同时uint8量化模型加速也需要ARM82
具体步骤
在NDK download下载安装NDK,建议使用最新稳定版本;
在 .bashrc 或者 .bash_profile 中设置NDK环境变量,例如:export ANDROID_NDK=/Users/username/path/to/android-ndk-r14b
执行编译
Android Studio 方式,全平台适用
用 Android Studio 打开
project/android/demo
,编译*.apk
用
unzip
解压编译好的apk
文件 ,lib目录下包含mnn的*so
文件
命令行方式,适用 linux / mac 系统
cd /path/to/MNN cd project/android # 编译armv7动态库 mkdir build_32 && cd build_32 && ../build_32.sh # 编译armv8动态库 mkdir build_64 && cd build_64 && ../build_64.sh
iOS
环境要求
xcode
相关编译选项
MNN_METAL
是否使用Metal后端,Metal后端可以利用GPU加速MNN_COREML
是否使用CoreML后端,CoreML后端可以利用ANE硬件加速MNN_ARM82
是否使用Arm82后端,Arm82后端支持低精度(fp16)推理,同时uint8量化模型加速也需要ARM82
具体步骤
在macOS下,用Xcode打开project/ios/MNN.xcodeproj,点击编译即可
其他平台交叉编译
由于交叉编译的目标设备及厂商提供的编译环境类型众多,本文恕无法提供手把手教学。 以下是大致流程,请按照具体场景做相应修改。交叉编译大致上分为以下两个步骤,即获取交叉编译器以及配置CMake进行交叉编译。
获取交叉编译工具链
以Linaro工具链为例。首先从Linaro网页中按照宿主机以及交叉编译目标设备来选择合适的工具链。这里我们以
arm-linux-gnueabi
为例,点击网页上的链接,进入arm-linux-gnueabi页面。 按照宿主机类型(这里以X64 Linux为例)选择下载链接, 文件名形如 gcc-linaro-7.5.0-2019.12-x86_64_arm-linux-gnueabi.tar.xz 下载后解压到任意目录。
配置交叉编译CMake
Toolchain法:对于常用的交叉编译配置,工具链提供方或网络上可能已经有现成的CMake Toolchain。 这种情况下使用如下命令即可:
mkdir build cd build cmake 其他CMake参数 /MNN/源码/路径 -DCMAKE_TOOLCHAIN_FILE=CMake/Toolchain/文件/路径
手动配置法
mkdir build && cd build cmake .. \ -DCMAKE_SYSTEM_NAME=宿主系统,例如Linux \ -DCMAKE_SYSTEM_VERSION=1 \ -DCMAKE_SYSTEM_PROCESSOR=交叉编译目标处理器的信息。例如arm或aarch64 \ -DCMAKE_C_COMPILER=交叉编译器中C编译器的路径 \ -DCMAKE_CXX_COMPILER=交叉编译器中C++编译器的路径
以Linaro ARM64为例
下载aarch64交叉编译工具链
mkdir -p linaro/aarch64 cd linaro/aarch64 wget https://releases.linaro.org/components/toolchain/binaries/latest-7/arm-linux-gnueabi/gcc-linaro-7.5.0-2019.12-x86_64_arm-linux-gnueabi.tar.xz tar xvf gcc-linaro-7.5.0-2019.12-x86_64_arm-linux-gnueabi.tar.xz
构建编译
export cross_compile_toolchain=linaro/aarch64 mkdir build && cd build cmake .. \ -DCMAKE_SYSTEM_NAME=Linux \ -DCMAKE_SYSTEM_VERSION=1 \ -DCMAKE_SYSTEM_PROCESSOR=aarch64 \ -DCMAKE_C_COMPILER=$cross_compile_toolchain/bin/aarch64-linux-gnu-gcc \ -DCMAKE_CXX_COMPILER=$cross_compile_toolchain/bin/aarch64-linux-gnu-g++ make -j4