代码之家  ›  专栏  ›  技术社区  ›  Alexander Belokon

从照相机API函数takePicture()获取/转换为YCbCr\ U 420\ U SP(NV21)图像格式

  •  1
  • Alexander Belokon  · 技术社区  · 7 年前

    我们从takePicture()函数中获取图像-这里我们使用 jpeg回调 (第三个参数)因为我们无法获得原始图像-即使在将回调缓冲区设置为最大大小之后。因此图像被压缩为JPEG格式-另一方面,我们需要图像与预览帧的格式相同: (此格式由我们使用的第三方库提供,我们没有重新实现的资源)

    在初始化相机时,我们尝试在参数中设置图片格式 但不幸的是,这并没有起到任何作用。我想这个函数只适用于原始回调。

    因此,目前我们使用以下java实现进行转换,其性能非常差(对于尺寸为3840x2160的图片,大约需要2秒):

    byte [] getNV21(int inputWidth, int inputHeight, Bitmap scaled) {
        int [] argb = new int[inputWidth * inputHeight];
        scaled.getPixels(argb, 0, inputWidth, 0, 0, inputWidth, inputHeight);
        byte [] yuv = new byte[inputWidth*inputHeight*3/2];
        encodeYUV420SP(yuv, argb, inputWidth, inputHeight);
        scaled.recycle();
    
        return yuv;
    }
    
    void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) {
        final int frameSize = width * height;
    
        int yIndex = 0;
        int uvIndex = frameSize;
        int R, G, B, Y, U, V;
        int index = 0;
        for (int j = 0; j < height; j++) {
            for (int i = 0; i < width; i++) {
                R = (argb[index] & 0xff0000) >> 16;
                G = (argb[index] & 0xff00) >> 8;
                B = (argb[index] & 0xff) >> 0;
    
                // well known RGB to YUV algorithm
                Y = ( (  66 * R + 129 * G +  25 * B + 128) >> 8) +  16;
                U = ( ( -38 * R -  74 * G + 112 * B + 128) >> 8) + 128;
                V = ( ( 112 * R -  94 * G -  18 * B + 128) >> 8) + 128;
    
                // NV21 has a plane of Y and interleaved planes of VU each sampled by a factor of 2
                //    meaning for every 4 Y pixels there are 1 V and 1 U.  Note the sampling is every other
                //    pixel AND every other scanline.
                yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y));
                if (j % 2 == 0 && index % 2 == 0) {
                    yuv420sp[uvIndex++] = (byte)((V<0) ? 0 : ((V > 255) ? 255 : V));
                    yuv420sp[uvIndex++] = (byte)((U<0) ? 0 : ((U > 255) ? 255 : U));
                }
    
                index ++;
            }
        }
    }
    

    有人知道在opencvc的帮助下转换是什么样子的吗?或者可以提供更有效的java实现?

    更新:

    private static byte[] YUV_420_888toNV21(Image image) {
        byte[] nv21;
        ByteBuffer yBuffer = image.getPlanes()[0].getBuffer();
        ByteBuffer uBuffer = image.getPlanes()[1].getBuffer();
        ByteBuffer vBuffer = image.getPlanes()[2].getBuffer();
    
        int ySize = yBuffer.remaining();
        int uSize = uBuffer.remaining();
        int vSize = vBuffer.remaining();
    
        nv21 = new byte[ySize + uSize + vSize];
    
        //U and V are swapped
        yBuffer.get(nv21, 0, ySize);
        vBuffer.get(nv21, ySize, vSize);
        uBuffer.get(nv21, ySize + vSize, uSize);
    
        return nv21;
    }
    

    而这个函数在 cameraCaptureSessions.setRepeatingRequest cameraCaptureSessions.capture . 两者都通过ImageReader请求YUV\ u 420\ u 888格式。

    1 回复  |  直到 7 年前
        1
  •  1
  •   Alex Cohn    7 年前

    有两种方法可以提高你的成绩。

    哪一个更适合你,取决于设备。有些将有硬件加速Jpeg解码器的Java,有些将使用libjpeg的软件。在后一种情况下,tjDecompressToYUV将提供显著的改进。

    API,ImageReader可以提供所需分辨率和质量的YUV或原始图像。

    推荐文章