highly optimized library of floating-point neural network inference operators for ARM, WebAssembly, and x86 platforms. XNNPACK is not intended for direct use by deep learning practitioners and researchers; instead it provides low-level performance primitives for accelerating high-level machine learning frameworks, such as TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime, and MediaPipe. XNNPACKは、ARM、WebAssembly、およびx86プラットフォーム用の浮動小数点ニューラル ネットワーク推論演算子の高度に最適化されたライブラリです。XNNPACKは、深層学習の実 践者や研究者が直接使用することを意図していません。代わりに、TensorFlow Lite、 TensorFlow.js、PyTorch、ONNX Runtime、MediaPipeなどの高レベルの機械学習フレームワ ークを高速化するための低レベルのパフォーマンスプリミティブを提供しています。 • (おそらく) 特に ARM に特化している XNNPACK とは