#android #rgb #yuv #android-camerax
Вопрос:
Я пытаюсь внедрить CameraX в ПРИЛОЖЕНИЕ. До сих пор мне удавалось это делать, но у меня есть 2 проблемы.
- Я использовал YuvToRgbКонвертер из этого официального репозитория, однако я получаю изображение с некоторыми артефактами
- Изображение после обработки, которое вы видите в правом нижнем углу, имеет иную ориентацию, чем в предварительном просмотре.
На ImageAnalysis
то, что я пытался поставить по-другому .setTargetrotation
, но результат тот же, что бы я ни изменил.
val imageAnalyzer = ImageAnalysis.Builder()
.setBackpressureStrategy(ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST)
.setTargetRotation(Surface.ROTATION_0)
.build()
Любая помощь будет высоко оценена!
Код, обрабатывающий преобразование, выглядит следующим образом:
class YuvToRgbConverterServiceImpl @Inject constructor(
@ApplicationContext val context: Context
) : YuvToRgbConverterService {
private val rs = RenderScript.create(context)
private val scriptYuvToRgb = ScriptIntrinsicYuvToRGB.create(rs, Element.U8_4(rs))
private var pixelCount: Int = -1
private lateinit var yuvBuffer: ByteBuffer
private lateinit var inputAllocation: Allocation
private lateinit var outputAllocation: Allocation
override fun convertYuvToRgb(image: Image): Bitmap {
val bitmap = Bitmap.createBitmap(image.width, image.height, Bitmap.Config.RGB_565)
yuvToRgb(image, bitmap)
return bitmap
}
@Synchronized
private fun yuvToRgb(image: Image, output: Bitmap) {
// Ensure that the intermediate output byte buffer is allocated
if (!::yuvBuffer.isInitialized) {
pixelCount = image.cropRect.width() * image.cropRect.height()
// Bits per pixel is an average for the whole image, so it's useful to compute the size
// of the full buffer but should not be used to determine pixel offsets
val pixelSizeBits = ImageFormat.getBitsPerPixel(ImageFormat.YUV_420_888)
yuvBuffer = ByteBuffer.allocateDirect(pixelCount * pixelSizeBits / 8)
}
// Rewind the buffer; no need to clear it since it will be filled
yuvBuffer.rewind()
// Get the YUV data in byte array form using NV21 format
imageToByteBuffer(image, yuvBuffer.array())
// Ensure that the RenderScript inputs and outputs are allocated
if (!::inputAllocation.isInitialized) {
// Explicitly create an element with type NV21, since that's the pixel format we use
val elemType = Type.Builder(rs, Element.YUV(rs)).setYuvFormat(ImageFormat.NV21).create()
inputAllocation = Allocation.createSized(rs, elemType.element, yuvBuffer.array().size)
}
if (!::outputAllocation.isInitialized) {
outputAllocation = Allocation.createFromBitmap(rs, output)
}
// Convert NV21 format YUV to RGB
inputAllocation.copyFrom(yuvBuffer.array())
scriptYuvToRgb.setInput(inputAllocation)
scriptYuvToRgb.forEach(outputAllocation)
outputAllocation.copyTo(output)
}
private fun imageToByteBuffer(image: Image, outputBuffer: ByteArray) {
assert(image.format == ImageFormat.YUV_420_888)
val imageCrop = image.cropRect
val imagePlanes = image.planes
imagePlanes.forEachIndexed { planeIndex, plane ->
// How many values are read in input for each output value written
// Only the Y plane has a value for every pixel, U and V have half the resolution i.e.
//
// Y Plane U Plane V Plane
// =============== ======= =======
// Y Y Y Y Y Y Y Y U U U U V V V V
// Y Y Y Y Y Y Y Y U U U U V V V V
// Y Y Y Y Y Y Y Y U U U U V V V V
// Y Y Y Y Y Y Y Y U U U U V V V V
// Y Y Y Y Y Y Y Y
// Y Y Y Y Y Y Y Y
// Y Y Y Y Y Y Y Y
val outputStride: Int
// The index in the output buffer the next value will be written at
// For Y it's zero, for U and V we start at the end of Y and interleave them i.e.
//
// First chunk Second chunk
// =============== ===============
// Y Y Y Y Y Y Y Y V U V U V U V U
// Y Y Y Y Y Y Y Y V U V U V U V U
// Y Y Y Y Y Y Y Y V U V U V U V U
// Y Y Y Y Y Y Y Y V U V U V U V U
// Y Y Y Y Y Y Y Y
// Y Y Y Y Y Y Y Y
// Y Y Y Y Y Y Y Y
var outputOffset: Int
when (planeIndex) {
0 -> {
outputStride = 1
outputOffset = 0
}
1 -> {
outputStride = 2
// For NV21 format, U is in odd-numbered indices
outputOffset = pixelCount 1
}
2 -> {
outputStride = 2
// For NV21 format, V is in even-numbered indices
outputOffset = pixelCount
}
else -> {
// Image contains more than 3 planes, something strange is going on
return@forEachIndexed
}
}
val planeBuffer = plane.buffer
val rowStride = plane.rowStride
val pixelStride = plane.pixelStride
// We have to divide the width and height by two if it's not the Y plane
val planeCrop = if (planeIndex == 0) {
imageCrop
} else {
Rect(
imageCrop.left / 2,
imageCrop.top / 2,
imageCrop.right / 2,
imageCrop.bottom / 2
)
}
val planeWidth = planeCrop.width()
val planeHeight = planeCrop.height()
// Intermediate buffer used to store the bytes of each row
val rowBuffer = ByteArray(plane.rowStride)
// Size of each row in bytes
val rowLength = if (pixelStride == 1 amp;amp; outputStride == 1) {
planeWidth
} else {
// Take into account that the stride may include data from pixels other than this
// particular plane and row, and that could be between pixels and not after every
// pixel:
//
// |---- Pixel stride ----| Row ends here --> |
// | Pixel 1 | Other Data | Pixel 2 | Other Data | ... | Pixel N |
//
// We need to get (N-1) * (pixel stride bytes) per row 1 byte for the last pixel
(planeWidth - 1) * pixelStride 1
}
for (row in 0 until planeHeight) {
// Move buffer position to the beginning of this row
planeBuffer.position(
(row planeCrop.top) * rowStride planeCrop.left * pixelStride)
if (pixelStride == 1 amp;amp; outputStride == 1) {
// When there is a single stride value for pixel and output, we can just copy
// the entire row in a single step
planeBuffer.get(outputBuffer, outputOffset, rowLength)
outputOffset = rowLength
} else {
// When either pixel or output have a stride > 1 we must copy pixel by pixel
planeBuffer.get(rowBuffer, 0, rowLength)
for (col in 0 until planeWidth) {
outputBuffer[outputOffset] = rowBuffer[col * pixelStride]
outputOffset = outputStride
}
}
}
}
}
}
Комментарии:
1. Вы не говорите нам, как вы используете эту функцию. Примечание: существует много yuv и много rgb, попробуйте определить, используете ли вы правильную функцию (линейную или гамма-коррекцию? полный или ограниченный ассортимент? [первый распространен в компьютере, второй в видео], и какое цветовое пространство). В любом случае, похоже, вы также кое-что узнали о том, как вы создаете результат (например, матрица памяти: существуют два разных соглашения: FORTRAN и индексирование на C). И вы уверены, что первоначальное изображение было YCC? (цветовое пространство отличается от формата изображения)
2. @GiacomoCatenazzi Я отредактировал вопрос и добавил код.
3. Я не понимаю, где вы выполняете преобразование (вы много готовитесь к подготовке буфера YUV). Вы уверены, что у вас правильный тип растрового изображения? (вам может потребоваться 4 байта, порядок обычно не R,G,B). Я думаю, вам нужна отладка. Попробуйте использовать некоторые определенные изображения (и, возможно, на вашем рабочем столе). Сохраните другой шаг и проверьте, кажется ли он правильным. Запуск в отладчике. Возможно, это просто где-то неправильный индекс, но его трудно отладить, просто прочитав код