Ausgabe transformieren

Die Ausgabe eines CameraX-Use-Cases besteht aus zwei Teilen: dem Buffer und den Transformationsinformationen. Der Buffer ist ein Byte-Array und die Transformationsinformationen geben an, wie der Buffer zugeschnitten und gedreht werden soll, bevor er Endnutzern angezeigt wird. Wie die Transformation angewendet wird, hängt vom Format des Buffers ab.

ImageCapture

Beim Anwendungsfall ImageCapture wird der Zuschneide-Rechteck-Puffer vor dem Speichern auf die Festplatte angewendet und die Drehung wird in den Exif-Daten gespeichert. Sie müssen nichts weiter tun.

Vorschau

Für den Anwendungsfall Preview können Sie die Transformationsinformationen durch Aufrufen von SurfaceRequest.setTransformationInfoListener() abrufen. Jedes Mal, wenn die Transformation aktualisiert wird, erhält der Aufrufer ein neues SurfaceRequest.TransformationInfo-Objekt.

Wie die Transformationsinformationen angewendet werden, hängt von der Quelle der Surface ab und ist in der Regel nicht trivial. Wenn Sie nur die Vorschau anzeigen möchten, verwenden Sie PreviewView. PreviewView ist eine benutzerdefinierte Ansicht, bei der die Transformation automatisch erfolgt. Wenn Sie den Vorschaustream bearbeiten möchten, z. B. mit OpenGL, sehen Sie sich das Codebeispiel in der CameraX Core-Test-App an.

Koordinaten transformieren

Eine weitere gängige Aufgabe besteht darin, mit den Koordinaten statt mit dem Radius zu arbeiten, z. B. um in der Vorschau einen Rahmen um das erkannte Gesicht zu ziehen. In solchen Fällen müssen Sie die Koordinaten des erkannten Gesichts von der Bildanalyse in die Vorschau transformieren.

Im folgenden Code-Snippet wird eine Matrix erstellt, die Koordinaten der Bildanalyse in PreviewView-Koordinaten abbildet. Informationen zum Transformieren der (x, y)-Koordinaten mit einer Matrix finden Sie unter Matrix.mapPoints().

Kotlin

fun getCorrectionMatrix(imageProxy: ImageProxy, previewView: PreviewView) : Matrix {
   val cropRect = imageProxy.cropRect
   val rotationDegrees = imageProxy.imageInfo.rotationDegrees
   val matrix = Matrix()

   // A float array of the source vertices (crop rect) in clockwise order.
   val source = floatArrayOf(
       cropRect.left.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.bottom.toFloat(),
       cropRect.left.toFloat(),
       cropRect.bottom.toFloat()
   )

   // A float array of the destination vertices in clockwise order.
   val destination = floatArrayOf(
       0f,
       0f,
       previewView.width.toFloat(),
       0f,
       previewView.width.toFloat(),
       previewView.height.toFloat(),
       0f,
       previewView.height.toFloat()
   )

   // The destination vertexes need to be shifted based on rotation degrees. The
   // rotation degree represents the clockwise rotation needed to correct the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   val vertexSize = 2
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   val shiftOffset = rotationDegrees / 90 * vertexSize;
   val tempArray = destination.clone()
   for (toIndex in source.indices) {
       val fromIndex = (toIndex + shiftOffset) % source.size
       destination[toIndex] = tempArray[fromIndex]
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4)
   return matrix
}

Java

Matrix getMappingMatrix(ImageProxy imageProxy, PreviewView previewView) {
   Rect cropRect = imageProxy.getCropRect();
   int rotationDegrees = imageProxy.getImageInfo().getRotationDegrees();
   Matrix matrix = new Matrix();

   // A float array of the source vertices (crop rect) in clockwise order.
   float[] source = {
       cropRect.left,
       cropRect.top,
       cropRect.right,
       cropRect.top,
       cropRect.right,
       cropRect.bottom,
       cropRect.left,
       cropRect.bottom
   };

   // A float array of the destination vertices in clockwise order.
   float[] destination = {
       0f,
       0f,
       previewView.getWidth(),
       0f,
       previewView.getWidth(),
       previewView.getHeight(),
       0f,
       previewView.getHeight()
   };

   // The destination vertexes need to be shifted based on rotation degrees.
   // The rotation degree represents the clockwise rotation needed to correct
   // the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   int vertexSize = 2;
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   int shiftOffset = rotationDegrees / 90 * vertexSize;
   float[] tempArray = destination.clone();
   for (int toIndex = 0; toIndex < source.length; toIndex++) {
       int fromIndex = (toIndex + shiftOffset) % source.length;
       destination[toIndex] = tempArray[fromIndex];
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4);
   return matrix;
}