Как пишет Apple на странице продукта, iPhone 14 Pro оснащен четырьмя камерами – основной камерой, сверхширокоугольной, а также с двойным и тройным зумами. Однако на задней панели видны только три камеры. Решение представляет собой «виртуальную камеру» с двойным зумом, обеспечиваемую 48-мегапиксельным четырехпиксельным сенсором. Является ли это дерзким маркетингом или на самом деле имеет смысл?
В 2022 году он выходит на следующий этап безумной гонки за мегапикселями. После выпуска первого 108-мегапиксельного смартфона в конце 2019 года, в этом месяце отметка в 200 мегапикселей будет снижена с помощью Motorola Edge 30 Ultra (тест) и Xiaomi 12T Pro (практический). И даже только что упомянутый iPhone 14 Pro в этом году достиг 48-мегапиксельной, нетипичной для Apple, емкости. Однако интересной особенностью датчиков с чрезвычайно высоким разрешением являются вовсе не фотографии размером до 100 мегабайт для изображений в формате домашней стены, а их масштабирование.
iPhone 14 Pro (Max) впервые оснащен камерой с разрешением 48 мегапикселей. Имеет ли это смысл?
Как работает 2-кратный зум в iPhone 14 Pro?
В отличие от полноценных цифровых фотоаппаратов, подавляющее большинство смартфонов не имеют зум-объективов из-за нехватки места, которые могут изменять фокусное расстояние при перемещении объективов. Вместо этого существуют собственные датчики для разных уровней масштабирования. В iPhone 14 Pro это один датчик для сверхширокоугольного (0,5x), один для широкоугольного (1x) и один для телекамеры (3x).
При увеличении с помощью жеста двумя пальцами в приложении «Камера» смартфон теперь выполняет цифровое увеличение изображения одной камеры за раз, пока не будет достигнуто увеличение на следующем модуле камеры, а затем переключается. По мере увеличения цифрового увеличения качество, естественно, снижается. Степень уменьшения зависит от конкретной камеры.
Здесь вы можете сравнить эффективные размеры сенсоров на iPhone 14 Pro.
Основная камера iPhone 14 Pro оснащена 1/1,28-дюймовым датчиком изображения размером 9,8 на 7,3 миллиметра в качестве основной камеры. Разрешение составляет 48 мегапикселей. При 2-кратном увеличении Apple просто вырезает 12-мегапиксельный кадр по центру сенсора, размер которого при этом остается 4,9 на 3,7 миллиметра– что соответствует формату примерно 1/3 дюйма. С точки зрения вычислений, это все еще необходимые условия для получения аккуратных фотографий при хорошем освещении.
При 3-кратном увеличении Apple затем переключается на следующий 12-мегапиксельный сенсор (который на самом деле больше похож на 3,2x с эквивалентным фокусным расстоянием 77 миллиметров). При формате 1/3,5 дюйма или 4,0 на 3,0 миллиметра, соответственно, датчик снова немного меньше, чем «2-кратный сенсор», вырезанный по центру из основной камеры.
На приведенном ниже рисунке вы можете увидеть, сколько сенсорной поверхности камеры доступно в iPhone 14 Pro и iPhone 13 Pro при разных фокусных расстояниях. Крайний левый край расположен под сверхшироким углом (13 миллиметров). Что касается основной камеры (24 миллиметра), то здесь наблюдается значительный скачок вверх. Что касается телекамеры (77 миллиметров), то у iPhone 14 Pro всегда больше сенсорной поверхности, чем у iPhone 13 Pro. Телекамера, наконец, идентична.
Здесь вы можете увидеть, какая площадь сенсора камеры доступна на iPhone 14 Pro и iPhone 13 Pro и с каким фокусным расстоянием.
Графика выше также интересна, только с мегапикселями, а не с сенсорной поверхностью по вертикальной оси. В то время как градиент в сверхширокоугольном и телевизионном диапазонах одинаков и составляет 12 мегапикселей каждый, скачок до 48 мегапикселей становится очевидным. iPhone 14 Pro имеет значительно больший запас разрешения при цифровом увеличении от 1x до 3,2x.
Что касается разрешения, то у iPhone 14 Pro также значительно больше резервов.
Насколько большим и высоким он должен быть?
Обсуждаемый до сих пор iPhone 14 Pro — это даже не смартфон с самым высоким разрешением или самым большим сенсором. На этой неделе Xiaomi выпустила 12T Pro, который оснащен 200-мегапиксельным сенсором, и полностью отказалась от телекамеры в обмен на это. Но насколько больше возможностей для цифрового масштабирования дает такое количество мегапикселей? Давайте посмотрим на это в сравнении с iPhone 14 Pro:
Что касается разрешения, то у iPhone 14 Pro также значительно больше резервов.
Однако, помимо разрешения, еще более важным фактором является площадь сенсора, доступная камере при различных фокусных расстояниях. Хотя Isocell HP1, встроенный в Xiaomi 12T Pro, значительно больше основной камеры в iPhone 14 Pro на 1/1,22 дюйма, он проигрывает по площади сенсора, доступной при переключении смартфона Apple в режиме телеобъектива, но при этом уступает по площади сенсору, доступному при переключении смартфона в режиме телеобъектива:
Xiaomi 12T Pro имеет больше сенсорного пространства, доступного с основной камерой. Однако при переключении на телесенсор iPhone 14 Pro снова отключается.
А как насчет квадроцикла Bayer?
Мы упустили из виду один фактор: цветные маски над датчиком. Чтобы объяснить Quad-Bayer & Co., нам сначала нужно взглянуть на то, как работают датчики изображения. Датчик изображения состоит из небольших световых датчиков, которые измеряют только количество падающего света — без различия цветов. 12 мегапикселей означает 12 миллионов таких датчиков освещенности.
Теперь, чтобы превратить этот черно-белый датчик в датчик цвета, поверх датчика надевается цветная маска, которая фильтрует поступающий свет на зеленый, красный и синий соответственно. Маска Байера, используемая в большинстве датчиков изображения, всегда делит пиксели размером два на два на два, на два зеленых пикселя, а также на красный пиксель и синий пиксель. Таким образом, сенсор с разрешением 12 мегапикселей имеет шесть миллионов зеленых и по три миллиона синих и красных пикселей каждый.
Датчик Байера (слева) имеет в два раза больше зеленых пикселей, чем красных и синих. В процессе демозаики созданные таким образом пробелы заполняются, а пиксели RGB интерполируются. / © Sony
При так называемой демозаике, или де-байеринге, алгоритмы обработки изображений теперь определяют значение RGB каждого пикселя на основе значений яркости окружающих пикселей разного цвета. Таким образом, полностью яркий зеленый пиксель, окруженный «темными» синими и красными пикселями, становится полностью зеленым. И зеленый пиксель рядом с полностью экспонированными синими и красными пикселями становится белым. И так далее, пока у нас не получится изображение с разрешением 12 миллионов пикселей RGB.
Однако при использовании датчиков с более высоким разрешением цветовая маска выглядит по-другому. В так называемом четырехъядерном сенсоре Байера — обычно в диапазоне около 50 мегапикселей — под каждой красной, зеленой или синей точкой изображения соответственно расположены по четыре пикселя яркости. 108-мегапиксельные сенсоры даже группируют девять (3×3) пикселей под цветовой поверхностью, в то время как 200-мегапиксельные чипы имеют 16 (4×4) пикселей. В Sony это называется Quad-Bayer, в Samsung — Tetra-, Nona- или Tetra2pixel.
Первым датчиком с четырехъядерной маской Bayer был Sony IMX586, показанный здесь на презентации OnePlus 7.
Таким образом, в то время как датчики изображения действительно имеют разрешение до 200 мегапикселей с точки зрения яркости, цветовая маска остается неизменной на уровне 12 мегапикселей. Это тоже не проблема, поскольку в восприятии разрешение по яркости более важно, чем разрешение по цвету. Тем не менее, при чрезвычайно высоком цифровом увеличении цветовое разрешение в какой-то момент снижается до такой степени, что возникают ошибки в изображении.
В качестве примера мы отредактировали здесь фотографию маленького андроида. Слева (1) вы увидите изображение в оттенках серого, справа (3) — изображение в формате RGB с четвертичным разрешением. Центральное изображение мы собрали из левого и правого изображений – и на первый взгляд результат выглядит очень хорошо. Однако при ближайшем рассмотрении переход между зеленым и синим цветом на макушке андроида выглядит нечистым. И именно на таких переходах возникают артефакты при слишком большом увеличении сенсора, когда цветовая маска имеет более низкое разрешение, чем сам сенсор. Кстати, Samsung, вероятно, именно поэтому также использовала 64-мегапиксельный сенсор с нетипичной для этого разрешения RGB-матрицей для своих популярных 1,1-дюймовых сенсоров в моделях S20 (+) и S21 (+).
Разрешение по яркости важнее, чем разрешение по цвету: это центральное изображение (2) было создано на основе черно-белого изображения с высоким разрешением (1) и цветного изображения с низким разрешением (3). Это цветное изображение (2) было создано на основе черно-белого изображения с высоким разрешением (1) и цветного изображения с низким разрешением (3).
Суть в том, что чисто из спецификации трудно определить, как обстоят дела с качеством изображения камер, тем более что в конечном итоге очень важную роль играют алгоритмы производителей. И так называемая повторная мозаика также представляет собой серьезную проблему. Поскольку датчики с масками Байера 2×2, 3×3 или 4×4, в отличие от обычного удаления мозаики, требуют интерполяции значений цвета по все более широким диапазонам датчиков и со все большей сложностью.
Но, с другой стороны, все более крупные датчики также создают проблемы. Чтобы объективы оставались компактными, производители должны устанавливать линзы, которые преломляют свет все сильнее и сильнее, что приводит к проблемам с хроматическими аберрациями и другими артефактами, особенно на периферии изображения. И небольшая глубина резкости также является проблемой на близком расстоянии.