Преобразование вывода

Выходные данные варианта использования CameraX двоякие: буфер и информация о преобразовании. Буфер представляет собой массив байтов, а информация о преобразовании — это то, как буфер следует обрезать и поворачивать перед его показом конечным пользователям. Способ применения преобразования зависит от формата буфера.

Захват изображения

В случае использования ImageCapture буфер прямоугольника кадрирования применяется перед сохранением на диск, а поворот сохраняется в данных Exif. Никаких дополнительных действий со стороны приложения не требуется.

Предварительный просмотр

В случае использования Preview вы можете получить информацию о преобразовании, вызвав SurfaceRequest.setTransformationInfoListener() . Каждый раз, когда преобразование обновляется, вызывающая сторона получает новый объект SurfaceRequest.TransformationInfo .

Способ применения информации о преобразовании зависит от источника Surface и обычно нетривиален. Если цель — просто отобразить предварительный просмотр, используйте PreviewView . PreviewView — это настраиваемое представление, которое автоматически обрабатывает трансформацию. Для более продвинутого использования, когда вам нужно отредактировать поток предварительного просмотра, например, с помощью OpenGL, посмотрите пример кода в основном тестовом приложении CameraX .

Преобразование координат

Другая распространенная задача — работа с координатами вместо буфера, например рисование рамки вокруг обнаруженного лица в предварительном просмотре. В подобных случаях вам необходимо преобразовать координаты обнаруженного лица из анализа изображения в предварительный просмотр.

Следующий фрагмент кода создает матрицу, которая сопоставляет координаты анализа изображения с координатами PreviewView . Чтобы преобразовать координаты (x, y) с помощью Matrix , см. Matrix.mapPoints() .

Котлин

fun getCorrectionMatrix(imageProxy: ImageProxy, previewView: PreviewView) : Matrix {
   val cropRect = imageProxy.cropRect
   val rotationDegrees = imageProxy.imageInfo.rotationDegrees
   val matrix = Matrix()

   // A float array of the source vertices (crop rect) in clockwise order.
   val source = floatArrayOf(
       cropRect.left.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.bottom.toFloat(),
       cropRect.left.toFloat(),
       cropRect.bottom.toFloat()
   )

   // A float array of the destination vertices in clockwise order.
   val destination = floatArrayOf(
       0f,
       0f,
       previewView.width.toFloat(),
       0f,
       previewView.width.toFloat(),
       previewView.height.toFloat(),
       0f,
       previewView.height.toFloat()
   )

   // The destination vertexes need to be shifted based on rotation degrees. The
   // rotation degree represents the clockwise rotation needed to correct the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   val vertexSize = 2
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   val shiftOffset = rotationDegrees / 90 * vertexSize;
   val tempArray = destination.clone()
   for (toIndex in source.indices) {
       val fromIndex = (toIndex + shiftOffset) % source.size
       destination[toIndex] = tempArray[fromIndex]
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4)
   return matrix
}

Ява

Matrix getMappingMatrix(ImageProxy imageProxy, PreviewView previewView) {
   Rect cropRect = imageProxy.getCropRect();
   int rotationDegrees = imageProxy.getImageInfo().getRotationDegrees();
   Matrix matrix = new Matrix();

   // A float array of the source vertices (crop rect) in clockwise order.
   float[] source = {
       cropRect.left,
       cropRect.top,
       cropRect.right,
       cropRect.top,
       cropRect.right,
       cropRect.bottom,
       cropRect.left,
       cropRect.bottom
   };

   // A float array of the destination vertices in clockwise order.
   float[] destination = {
       0f,
       0f,
       previewView.getWidth(),
       0f,
       previewView.getWidth(),
       previewView.getHeight(),
       0f,
       previewView.getHeight()
   };

   // The destination vertexes need to be shifted based on rotation degrees.
   // The rotation degree represents the clockwise rotation needed to correct
   // the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   int vertexSize = 2;
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   int shiftOffset = rotationDegrees / 90 * vertexSize;
   float[] tempArray = destination.clone();
   for (int toIndex = 0; toIndex < source.length; toIndex++) {
       int fromIndex = (toIndex + shiftOffset) % source.length;
       destination[toIndex] = tempArray[fromIndex];
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4);
   return matrix;
}