Ausgabe transformieren

Die Ausgabe eines CameraX-Anwendungsfalls ist zweifach: der Zwischenspeicher und die Transformationsinformationen. Der Zwischenspeicher besteht aus einem Bytearray und die Transformationsinformationen geben an, wie der Zwischenspeicher zugeschnitten und gedreht werden soll, bevor er Endnutzern angezeigt wird. Wie die Transformation angewendet wird, hängt vom Format des Puffers ab.

Bilderfassung

Für den Anwendungsfall ImageCapture wird der Zuschneidezwischenspeicher angewendet, bevor auf dem Laufwerk gespeichert und die Rotation in den EXIF-Daten gespeichert wird. Es sind keine weiteren Maßnahmen von der App aus erforderlich.

Vorschau

Für den Anwendungsfall Preview können Sie die Transformationsinformationen durch Aufrufen von SurfaceRequest.setTransformationInfoListener() abrufen. Jedes Mal, wenn die Transformation aktualisiert wird, erhält der Aufrufer ein neues SurfaceRequest.TransformationInfo-Objekt.

Wie die Transformationsinformationen angewendet werden, hängt von der Quelle der Surface ab und ist in der Regel nicht einfach. Wenn nur die Vorschau angezeigt werden soll, verwenden Sie PreviewView. PreviewView ist eine benutzerdefinierte Ansicht, die Transformationen automatisch verarbeitet. Wenn Sie den Vorschaustream z. B. mit OpenGL bearbeiten müssen, sehen Sie sich das Codebeispiel in der CameraX Core-Test-App an.

Koordinaten umwandeln

Eine weitere häufige Aufgabe besteht darin, mit den Koordinaten anstelle des Zwischenspeichers zu arbeiten, z. B. indem Sie in der Vorschau einen Rahmen um das erkannte Gesicht ziehen. In solchen Fällen müssen Sie die Koordinaten des erkannten Gesichts von der Bildanalyse in die Vorschau umwandeln.

Mit dem folgenden Code-Snippet wird eine Matrix erstellt, die die Koordinaten der Bildanalyse den PreviewView-Koordinaten abbildet. Informationen zum Transformieren der Koordinaten (x, y) mit einem Matrix finden Sie unter Matrix.mapPoints().

Kotlin

fun getCorrectionMatrix(imageProxy: ImageProxy, previewView: PreviewView) : Matrix {
   val cropRect = imageProxy.cropRect
   val rotationDegrees = imageProxy.imageInfo.rotationDegrees
   val matrix = Matrix()

   // A float array of the source vertices (crop rect) in clockwise order.
   val source = floatArrayOf(
       cropRect.left.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.top.toFloat(),
       cropRect.right.toFloat(),
       cropRect.bottom.toFloat(),
       cropRect.left.toFloat(),
       cropRect.bottom.toFloat()
   )

   // A float array of the destination vertices in clockwise order.
   val destination = floatArrayOf(
       0f,
       0f,
       previewView.width.toFloat(),
       0f,
       previewView.width.toFloat(),
       previewView.height.toFloat(),
       0f,
       previewView.height.toFloat()
   )

   // The destination vertexes need to be shifted based on rotation degrees. The
   // rotation degree represents the clockwise rotation needed to correct the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   val vertexSize = 2
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   val shiftOffset = rotationDegrees / 90 * vertexSize;
   val tempArray = destination.clone()
   for (toIndex in source.indices) {
       val fromIndex = (toIndex + shiftOffset) % source.size
       destination[toIndex] = tempArray[fromIndex]
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4)
   return matrix
}

Java

Matrix getMappingMatrix(ImageProxy imageProxy, PreviewView previewView) {
   Rect cropRect = imageProxy.getCropRect();
   int rotationDegrees = imageProxy.getImageInfo().getRotationDegrees();
   Matrix matrix = new Matrix();

   // A float array of the source vertices (crop rect) in clockwise order.
   float[] source = {
       cropRect.left,
       cropRect.top,
       cropRect.right,
       cropRect.top,
       cropRect.right,
       cropRect.bottom,
       cropRect.left,
       cropRect.bottom
   };

   // A float array of the destination vertices in clockwise order.
   float[] destination = {
       0f,
       0f,
       previewView.getWidth(),
       0f,
       previewView.getWidth(),
       previewView.getHeight(),
       0f,
       previewView.getHeight()
   };

   // The destination vertexes need to be shifted based on rotation degrees.
   // The rotation degree represents the clockwise rotation needed to correct
   // the image.

   // Each vertex is represented by 2 float numbers in the vertices array.
   int vertexSize = 2;
   // The destination needs to be shifted 1 vertex for every 90° rotation.
   int shiftOffset = rotationDegrees / 90 * vertexSize;
   float[] tempArray = destination.clone();
   for (int toIndex = 0; toIndex < source.length; toIndex++) {
       int fromIndex = (toIndex + shiftOffset) % source.length;
       destination[toIndex] = tempArray[fromIndex];
   }
   matrix.setPolyToPoly(source, 0, destination, 0, 4);
   return matrix;
}