Формат матрицы у камер и пересчет ее размеров
При выборе камеры размер матрицы является важным параметром, поскольку чувствительность камеры напрямую зависит от размера пикселя на матрице. Однако, размеры сенсоров не соответствуют написанным цифрам, так 1-дюймовый сенсор действительно больше, чем 1/2-дюймовый сенсор, но его размеры не равны 1 дюйму, даже если замерить его диагональ.
Условные обозначения размеров матриц остались еще из тех времен, когда в камерах использовались электронные лампы. Так для матрицы диаметром 1″ вакуумная трубка устанавливалась в отклоняющую катушку диаметром 1″, поэтому датчик диаметром 1″ фактически был меньше дюйма. Соотношение между диаметром катушки и форматом изображения трубки составляло примерно 63%.
На таблице показаны некоторые матрицы распространенных форматов с указанием размеров сенсоров и их эквивалентных размеров в миллиметрах. Эти размеры могут варьироваться от матрицы к матрице. Для определения точных размеров матрицы стоит обратиться к документации на камеру либо на ее матрицу, если последняя серийно изготовляемая.
В зависимости от размера матрицы очень важно подобрать для камеры подходящий объектив. Линейки объективов у многих производителей разделены по разрешающей способности объектива и размера матрицы камеры. В выборе объектива важно учитывать оба фактора, если разрешение камеры будет больше разрешения объектива — изображения будут смазанные.
Бюджетные объективы для камер видеонаблюдения рассчитаны на невысокие разрешения и малый размер матрицы. Они подходят лишь немногим камерам машинного зрения, имеющим размер матрицы до 1/3″. Для камер высокоскоростной съемки, с матрицами 1″ и более (1,1″, 4/3) они не подходят.
От максимального размера сенсора для выбранного объектива будет зависеть увидит ли матрица камеры все поле зрения объектива или на краях изображения будут темные участки. Если матрица камеры будет больше (например 1″) допустимого размера у объектива (2/3″), то полученное изображение с камеры будет обрезано — оно будет круглым, как показано на изображении:
Если использовать объектив, рассчитанный на большую матрицу, чем установлена в вашей камере — вы можете выиграть в качестве получаемого изображения, так как оптические искажения объектива (дисторсия) проявляется ближе к краям изображения, а в центре изображение наилучшего качества.
Также объективы имеют ряд других параметров, которые нужно учитывать при выборе (байонеты, переходники, фокусное расстояние, диафрагма, ИК и УФ коррекции и т.д.). Мы готовы оказать вам профессиональную консультацию в выборе оптики для вашей камеры — свяжитесь с нами.
Матрица камеры
Матрица камеры (светочувствительный сенсор) является основным элементом камеры видеонаблюдения. Представлена в виде интегральной схемы из фотодиодов. Основная задача матрицы — преобразование в аналоговый электрический сигнал или в поток цифровых данных проецированного на нее оптического изображения. По большей степени, качество итогового изображения напрямую зависит от матрицы видеокамеры. Объясняется это тем, что такая немаловажная часть камеры видеонаблюдения как процессор отвечает только за оцифровку полученного изображения. Если же изначально на процессор поступило плохое изображение от матрицы, то процессор будет оцифровывать видео изначально плохого качества. Зачастую производители выпускают одинаковые по характеристикам камеры , но с разными типами матриц. По итогу Вы получите абсолютно два разных по качеству изображения. Цена на такие камеры может разниться до 35%.Типы матриц камер: CCD матрицы и CMOS матрицы камер
Различают два типа матриц, применяемых в камерах видеонаблюдения:
- CCD матрица (ПЗС — прибор с зарядовой связью)
- CMOS (КМОП — комплементарная структура металл-оксид-полупроводник)
Сравнение матриц CCD и CMOS формата
Несмотря на все плюсы CCD матриц на сегодняшний день они практически не применяются в камерах видеонаблюдения. Основными критериями ухода с рынка стали высокая цена производства и медленный принцип действия CCD матриц. С нарастающими требованиями к системам видеонаблюдения по скорости обработки информации принцип последовательного считывания заряда по ячейкам стал неактуален для рынка камер видеонаблюдения. А высокая конкурентная среда на рынке заставила многих производителей пересмотреть экономическую составляющую производства и это стало ключевым фактором исключения CCD матриц с рынка камер видеонаблюдения.
Обзор матриц камер: производители матриц
- ON Semiconductor Corporation
- Omnivision Technologies Inc.
- Samsung Electronics
- Sony Corporation
- Silicon Optronics (SOI)
Размер матрицы
Размер матрицы — условное соотношение длины матрицы к одному Видикону.
Размер матрицы измеряется в дюймах и указывается в соотношении дроби 1/2″, 1/2,8″, 1/3″, 1/4″, 1/6″ и т.д. Но в качестве дюйма выступает именно Видикон или так называемый «Видиконовый дюйм».
Видикон (Видиконовый дюйм) — условный дюйм при диагонали 16мм.
Соответствие дюймов и фактических размеров матрицы можно взять из таблицы:
Формат | 1” | ½” | 1/3” | ¼” |
Высота, мм | 9,6 | 4,8 | 3,6 | 2,4 |
12,8 | 6,4 | 4,8 | 3,2 |
При одинаковом количестве пикселей у большей матрицы больше каждый отдельно взятый пиксель, а значит в общем матрица получает больше света. Также пиксели расположены дальше друг от друга и как следствие создается меньшее влияние взаимных помех и ниже уровень паразитных шумов.
Разрешение матрицы видеокамеры и светочувствительность матрицы камер
Итоговое изображение, полученное в результате преобразования цифрового потока напрямую зависит от матрицы. Поэтому не стоит пренебрегать этим параметром при выборе. Принято считать, что чем больше размер матрицы, тем лучше: тем больше света получает и как следствие меньше шумов, четче картинка и больше угол обзора. Однако правильнее считать за основу не размер матрицы, а размер одной ячейки — пикселя. Поэтому правильнее считать размер матрицы в сочетании с количеством пикселей.
Основной характеристикой при выборе матрицы является светочувствительность. Единица измерения светочувствительности — 1 Люкс (Лк) или иными словами производная одного Люмена (единица измерения светового потока) на единицу измерения площади (квадратный метр). Простыми словами Люмен — минимальное количество света, необходимое для четкого и качественного изображения. Существует зависимость: чем меньше значение светочувствительности, тем позднее камера переходит в черно-белый режим. Камеры видеонаблюдения и их светочувствительность стоит подбирать под определенные задачи и расположение.
Какая матрица лучше?
Во-первых, изначально надо определить конкретные задачи и условия, в которых будет использоваться камера видеонаблюдения. Во-вторых, характеристики камер надо рассматривать в совокупности, а не отдельно взятую характеристику. Например большее количество пикселей при одинаковом размере матрицы дадут худшее изображение. Ну и помните — чем больше размер матрицы, тем дороже она стоит. Подбирайте оборудование с оптимальным соотношением цена/качество.
Надеемся наша статья была Вам полезна и вы разобрались что такое матрица камеры видеонаблюдения, какие типы матриц бывают. Узнали основные характеристики — размер, светочувствительность и разрешение матрицы.
Надеемся, наша статья была Вам полезна.
С уважением группа «Гарант»
Матрица (светочувствительная матрица) в камерах видеонаблюдения
Матрица или светочувствительная матрица, видеоматрица (image sensor, imager) является основным элементов видеокамер, цифровых фотоаппаратов и предназначена для преобразования, проецированного на неё оптического изображения в аналоговый электрический сигнал или в поток цифровых данных (при наличии аналого-цифрового преобразователя непосредственно в составе матрицы). Если обойтись без википедии, то матрица преобразовывает свет в электрический сигнал.
Необходимо отметить, что сама матрица даже важнее процессора, который используется для оцифровки видео — пусть в ЦП и будет множество функций, но если на матрице получено плохое изображение, то процессор работает уже с плохим изображением.
Также отметим, что у одного производителя может быть две камеры с одинаковыми характеристиками (разрешение записи, угол обзора и т.п.), но разными матрицами, например одна камера с матрицей от Sony и вторая камера с матрицей от SOI (или Noname) — и цена таких камер может отличаться на 30-35%.
Производители матриц
Давайте и начнем с производителей. Наиболее известными и популярными производителями матриц для камер видеонаблюдения являются: ON Semiconductor Corporation, Omnivision Technologies Inc., Samsung Electronics и Sony Corporation. Производители используют матрицы этих брендов для создания основной линейки видеокамер и камер премиум класса. Также, отметим бренды Canon, Hikvision и Dahua — они также производят матрицы под собственные нужды.
Но, разумеется, что существует множество других производителей, которые предлагают бюджетные решения, например, одна из наиболее популярных компаний — это SOI (Silicon Optronics, Inc.), которая достаточно молодая, но уже пытается найти свою нишу среди именитых брендов. Как раз на базе матриц SOI множество производителей и делают бюджетные линейки видеокамер. То есть, если Вы видите, что даже у одного производителя есть камеры с абсолютно одинаковыми характеристиками, но с разной ценой — то, обратите внимание на матрицу и производителя этой матрицы, скорее всего разница только в этом. В целом, понятна и разница между брендами и любым ноунеймом. Да, все характеристики могут быть одинаковыми, разрешение передачи видео изображения, но разные матрицы и разные производители — на выходе вы увидите разные картинки, разную насыщенность и даже разные цвета (оттенки).
CCD и CMOS матрицы
В старых статьях и обзорах в Сети вы можете увидеть много букв про преимущества и недостатки CCD или CMOS матриц и какую лучше выбрать. Но, победили CMOS матрицы, в основном из-за того, что они дешевле в производстве. Поэтому, при выборе камеры для видеонаблюдения нет больше выбора между CCD и CMOS матрицы — only CMOS. Поэтому, перейдем к остальным характеристикам матриц.
Формат (типоразмер) матрицы
В характеристиках видеокамеры вы обязательно увидите размер матрицы — 1/4 дюйма, 1/3″, 1/2.8 д и т.п. Формат матрицы — это размер матрицы по диагонали. Обозначение типоразмера досталось в наследство от электронно-лучевых трубок, и указывают формат матрицы в виде дроби с размерностью в дюймах.
В формате матрицы очень простое правило — чем больше размер матрицы, тем лучше. Так как, при других равных условиях (разрешении, то есть одинаковом количестве пикселей) у большей матрицы крупнее пиксели, таким образом, она улавливает больше света. Кроме того, сами пиксели на матрице большего размера расположены менее тесно, что обеспечивает меньшее влияние взаимных помех и ниже уровень паразитных шумов, а это все влияет качество получаемого видеосигнала и получаемого изображения в итоге.
Также, физический размер матрицы влияет на угол обзора камера видеонаблюдения. При прочих равных условиях, чем больше матрица, тем больше углы обзора у видеокамеры.
От размера матрицы зависит и то, какие объективы можно устанавливать на камеру (если возможна смена объектива в камере видеонаблюдения). Производители объективов всегда указывают размер матрицы, под которую подходит объектив, например 1/4 или 1/3. При этом, объектив для матрицы большего размера подойдет для камер с матрицей меньшего размера, но никак не наоборот.
И, что очевидно, матрица большего размера дороже в производстве. Поэтому, в бюджетных моделях камер видеонаблюдения вы редко увидите матрицы больше 1/4″, а в уже более дорогих камерах используются типоразмеры матрицы 1/3″, 1/2.8″ и т.п. В специальных профессиональных камерах высокого качества могут использоваться матрицы размером 1/2″ и 1/1.9″.
Светочувствительность матрицы
Характеристика, которую вы также увидите в описание практически у каждого производителя, некоторые производители могут указывать просто как чувствительность матрицы. Светочувствительность матрицы определяет возможность работы матрицы в условиях окружающего освещения. Таким образом, чем меньше количество световой энергии необходимо для получения нормального изображения, тем выше и светочувствительность матрицы. Для всех матриц справедливо следующее — чем лучше освещенность, тем лучше изображение. Светочувствительность матрицы производители указывают в Люксах — ЛК, Lux, люкс. Но, обратите внимание, что производители указывают минимальный уровень освещенности, при котором видеокамера еще может зафиксировать какое-то изображение, но никто не обещает, что это будет изображение хорошего качества. Сегодня практически все камеры поддерживают режимы «день / ночь» и оснащены ИК-подсветкой и в темное время суток (при снижении освещенности) камера переключается автоматически в черно-белый режим съемки. Обычная ИК-подсветка позволяет снимать даже в полной темноте на расстоянии 20 – 25 м, кроме того, существуют модели с усиленной ИК-подсветкой, где можно снимать на расстоянии 60 – 100 м в полной темноте.
Таким образом, светочувствительность критична для камер, без ИК-подсветки, которых сейчас практически нет (только специальные миниатюрные цилиндрические или корпусные камеры могут быть без ИК-подсветки). Как правило, все производители указывают светочувствительность 0,01 Lux, что соответствует по значениям освещенности как «Безлунная ночь» 0,01 Lux (для сравнения — «Лунная ночь» — 0,05 Lux, «Сумерки и хорошо освещенная автомагистраль ночью» — 10 Lux, «Дневное, естественное освещение на улице в солнечную погоду» — 5000 — 100000 Lux).
Еще стоит немного упомянуть о технологиях, которые используются для улучшения светочувствительности матрицы в видеокамере и снизить потери света в процессе фиксации изображения. Как правило, для этого необходимо вывести светочувствительный элемент как можно ближе к микролинзе матрицы, которая собирает свет. Это технологии Exmor и Starlight. Такие камеры могут передавать даже в цвете с помещения освещенностью 0,01 Lux, и давать неплохое изображение в условиях освещенности 0,0001 — 0,001 Lux. Но стоит, отметить, что и цена таких камер немалая – это уже более профессиональная линейка. Есть смысл использовать такие технологии в роботизированных камерах, которые снимают, например, на больших территориях или для системы «Умный город». Для обычных объектов проще / и дешевле 🙂 / заняться вопросом освещения.
Надеемся, что после прочтения этой статьи вы больше узнаете о характеристиках матрицы и на что они влияют. Теперь вы понимаете насколько много зависит от производителя и качестве матрицы в видеокамере. Поэтому, в одном и том же производители в одинаковых характеристиках и корпусах могут быть камеры с разными матрицами и по разной цене (разница может составлять даже 30-35%).
Мегапиксели или размер матрицы? Что важнее в камере смартфона — Общение — Mi Community
Обложка
Изменить* Рекомендуется загружать изображения для обложки с разрешением 720*312
Описание темы
Mi фаны, здравствуйте! Котяш, как всегда, с вами. Недавно началась "мегапиксельная война", и кажется, что наш рынок смартфонов наводнен всем этим. Я взял в августе Mi 9T с 48-МП сенсором и я ходил такой весь из себя на понтах! А потом прихожу домой включаю телевизор и там говорят: "Аншлаг, вы слушали Маяк, любезный! Для всех тех, кто купил камеру на 48 МП, прекрасная новость — у нас вышла камера на 64 МП!" Это заставило меня задуматься — может ли камера с большим количеством мегапикселей создавать изображения с лучшим качеством? Или другие компоненты, такие как размер сенсора, линзы или пиксельное расстояние играют гораздо большую роль. Итак, давайте обсудим, что является более важным компонентом в камере смартфона: мегапиксели или размер сенсора? И стоит ли ходить по улице в очках, на которых написано "У меня 108 МП"… Погнали!МЕГАПИКСЕЛИ Мегапиксель в равен одному миллиону пикселей (Капитан Очевидность всегда с вами). Проще говоря, 5-мегапиксельная камера может захватывать 5 миллионов пикселей. Слово «пиксель» состоит из комбинации слов и изображений. Каждый пиксель в камере захватывает свет и превращает его в данные, а затем эти данные используются для воссоздания изображения. Очень многие считают, что чем больше пикселей — тем лучше изображение, но это не так. Данные, которые они собирают, являются как хорошей, так и плохой информацией. Что означает термин "плохая информация"? К этому относятся шумы, низкая насыщенность цвета и небольшая экспозиция и так далее. Но вопрос "Чем больше мегапикселей — тем лучше?" остается открытым. Давайте возьмем пример 12-мегапиксельной и 16-мегапиксельной камеры телефона. Чем большее количество мегапикселей, тем больше информации они можут собрать. Исходя из этого можно предположить, что 16 МП делает снимки лучше. Но в реальности 16-мегапиксельная камера может иногда снимать изображения гораздо хуже, чем 12-мегапиксельная камера телефона, если обе камеры имеют одинаковый размер сенсора. 16-мегапиксельная камера телефона имеет 16 миллионов пикселей на том же датчике камеры, который присутствует на 12-мегапиксельной камере телефона. Это означает, что на одном и том же участке пространства будет больше пикселей, что приведет к снижению захвата света и, в конечном итоге, к получению худшего изображения.РАЗМЕР МАТРИЦЫ Размер матрицы определяет, сколько света захватит камера, чтобы создать изображение. Количество света, которое принимает матрица, в конечном итоге дает более лучшие изображения. Таким образом, больший датчик будет захватывать больше света, собирая больше информации и создавая более качественные и четкие изображения. В настоящее время производители смартфонов увеличивают размер матрицы, чтобы получать более качественные фотографии при слабом освещении. Это изображение поможет вам понять матрицы. Цветные рамки — это разные значения матрицы. Здесь показано, сколько датчиков могут захватывать, если они использовали один и тот же объектив для фотографирования. Таким образом, больший датчик в конечном итоге будет захватывать больше света и деталей. Для смартфонов это измеряется по диагонали в долях дюйма Размеры сенсоров, обычно используемых в камерах смартфонов, включают 1 / 1,7-дюймовый, 1 / 2,0-дюймовый и 1 / 2,3-дюймовый. Вот почему производители фотоаппаратов в настоящее время увеличивают размер сенсора, чтобы улучшить качество фотосъемки при слабом освещении и получать четкие и красочные изображения. Мегапиксели и размер матрицы оба важны для получения изображений хорошего качества. Оба имеют некоторые преимущества и недостатки. Если у вас больше мегапикселей, то вы снимайте фотографии большого размера, которые занимают больше места вместе с плохой информацией. Больше данных также означает больше полезной информации при захвате изображений. Важно то, что при использовании более высокой мегапиксельной камеры размер используемого в ней датчика также должен иметь больший размер. Это поможет получить более качественные изображения. Но не только эти показатели влияют на качество снимков. Но это… Благодарю за внимание и ознакомление, надеюсь, что вам было интересно ознакомиться с данной информацией, а мы встретимся с вами как всегда в беспятнадцати полвторого, пока!
Выбрать колонку
Добавить в колонку
Изменения необратимы после отправки
Разбираемся в светочувствительных матрицах: CMOS и CCD
Светочувствительная матрица — это «глаз» вашей видеокамеры безопасности. Она захватывает свет, попавший в объектив видеокамеры безопасности, и преобразовывает его в электронный сигнал.
Формат, или размер, матрицы определяет охват ваших камер безопасности. Самыми популярными форматами являются следующие: 2/3″, 1/2″ и 1/3″.
- Матрица с диагональю 2/3″ позволяет вести видеонаблюдение на больших расстояниях в условиях очень низкой освещенности.
- Матрица с диагональю 1/2″ — в большинстве случаев, представляет собой оптимальное решение с приемлемой светочувствительностью.
- Матрица с диагональю 1/3″ обеспечивает хорошую производительность при низкой освещенности и высокой частоте кадров.
Самыми популярными типами матриц по применяемой технологии являются CMOS (КМОП-матрица) и CCD (ПЗС-матрица).
1. Видеокамеры наблюдения с КМОП-матрицей: за и против
КМОП (CMOS) означает комплементарный металл-оксид-полупроводник (Complementary Metal Oxide Semiconductor). В видеокамерах безопасности с матрицей CMOS используется технология прогрессивного сканирования.
Преимущества и недостатки видеокамеры наблюдения с CMOS-матрицей
Преимущества видеокамеры наблюдения с CMOS-матрицей
- Высокое разрешение
- Отличная цветопередача
- Высокая кадровая частота
- Низкое энергопотребление
- Экономическая эффективность
Недостатки видеокамеры наблюдения с CMOS-матрицей
- Высокий уровень шума
- Умеренная светочувствительность
2. Видеокамеры наблюдения с ПЗС-матрицей: за и против
Аббревиатура ПЗС (CCD) означает прибор с зарядовой связью (Charge Coupled Device). Видеокамеры наблюдения с ПЗС-матрицами имеют отличный WDR (широкий динамический диапазон), поэтому часто используются в условиях низкой освещенности. Камеры безопасности с матрицами CCD, как правило, менее подвержены влиянию вибраций по сравнению с камерами безопасности с матрицами CMOS.
Сильные и слабые стороны видеокамеры наблюдения с CCD-матрицей
Сильные стороны видеокамеры наблюдения с CCD-матрицей
- Хорошая производительность в условиях низкой освещенности
- Хорошая технология WDR
- Меньшая восприимчивость к вибрационному эффекту
- Низкий уровень шума
- Высокая чувствительность
- Высокое разрешение
Недостатки видеокамеры наблюдения с CCD-матрицей
- Высокое энергопотребление
- Низкая кадровая частота
- Дороговизна
CMOS или CCD — что лучше?
Раунд 1: Кадровая частота и потребляемая мощность
Камера безопасности с CMOS-датчиком является однозначным победителем по частоте кадров. Камера безопасности с CMOS-датчиком может напрямую преобразовывать фотоэлектрический сигнал в цифровой сигнал. Частота кадров и скорость процесса преобразования сигнала CMOS-датчиком гораздо больше по сравнению с CCD-датчиком.
Аналого-цифровое преобразование происходит за пределами CCD-датчиков, поэтому формирование изображений и видео происходит дольше. Кроме того, видеокамеры безопасности с датчиками изображения CCD часто страдают от проблемы перегрева.
Камеры видеонаблюдения с CMOS-датчиками поддерживают гораздо более высокую кадровую частоту и потребляют меньше энергии, а также более экономичны по сравнению с камерами безопасности с CCD-датчиками. Обычно цена камеры видеонаблюдения с CMOS-матрицей более приятная, чем цена камеры безопасности с CCD-матрицей.
Поэтому победителем первого раунда становится видеокамера с CMOS-матрицей!
Раунд 2: Качество изображения
Как правило, камеры безопасности с CCD-матрицей создают изображения с более высоким разрешением. Тем не менее, развитие технологий может поставить качество изображений CMOS на один уровень с CCD. Например, видеокамеры безопасности с CMOS датчиками и оптическим зумом могут создавать даже более четкие изображения, чем видеокамеры с матрицами CCD.
Итак, второй раунд — ничья!
Раунд 3: Светочувствительность и шум
Традиционно, ПЗС-датчики менее подвержены искажениям изображения и имеют более высокую светочувствительность, поэтому создают гораздо меньше шума, чем камеры безопасности с датчиками CMOS. Однако, в настоящее время, в плане чувствительности, камеры видеонаблюдения с матрицами CMOS иногда даже превосходят CCD видеокамеры.
Трудно сказать, кто станет победителем в категориях светочувствительности и шума. Однако, исходя из текущего уровня развития технологии и производительности, видеокамеры с матрицей CCD становятся победителями в третьем раунде (возможно, это временная победа).
Основываясь на приведенной выше информации и подробном сравнении двух типов датчиков, можно обнаружить, что каждый тип датчика имеет свои плюсы и минусы.
В этой битве не может быть одного победителя. Все сводится к конкретному случаю:
1. Вы можете выбрать камеры безопасности с CCD-датчиками, если их использование будет происходить в условиях низкой освещенности.
Примечание: Некоторые камеры безопасности с CMOS-матрицами также могут обеспечить отличное наблюдение в темное время суток.
2. Видеокамеры наблюдения с CMOS-датчиками могут быть более компактными, поскольку размеры самих CMOS-датчиков могут быть очень маленькими. Поэтому можете выбрать их, если не хотите привлекать внимания к своей системе наблюдения.
3. Выбирайте видеокамеры безопасности с CMOS-матрицей, если ваше интернет-подключение недостаточно качественное. Видеокамеры наблюдения с CMOS-матрицей имеют меньше требований к ширине полосы пропускания, поэтому не будут перегружать вашу сеть.
Источник reolink.com. Перевод статьи выполнила администратор сайта Елена Пономаренко.
Сенсоры цифровых камер
В цифровых камерах для получения изображения используется сенсорная матрица из миллионов миниатюрных ячеек-пикселей. Когда вы нажимаете кнопку спуска на своей камере, и начинается экспозиция, каждый из этих пикселей представляет собой «фототермос», который открывается, чтобы собрать и сохранить фотоны в своей ёмкости. По завершении экспозиции камера закрывает все фототермосы и пытается определить, сколько фотонов попало в каждый. Относительное количество фотонов в каждой ёмкости далее преобразуется в различные уровни интенсивности, точность которых определяется разрядностью (от 0 до 255 для 8-битного изображения).
В ёмкости не содержится информации о том, сколько каждого цвета попало в неё, так что вышеописанным способом можно было бы получить только чёрно-белые изображения. Чтобы получить цветные изображения, поверх каждой ёмкости помещают фильтр, который пропускает только определённый цвет. Практически все современные цифровые камеры могут захватить в каждую из ёмкостей только один из трёх первичных цветов и таким образом теряют примерно 2/3 входящего света. В результате камере приходится складывать остальные цвета, чтобы иметь информацию обо всех цветах в каждом пикселе. Наиболее известный матричный цветофильтр, который называется «фильтр Байера», показан ниже.
Матричный цветофильтр |
Матрица Байера состоит из чередующихся рядов красно-зелёных и зелено-синих фильтров. Обратите внимание, что в матрице Байера содержится вдвое больше зелёных сенсоров, чем синих или красных. Дисбаланс первичных цветов вызван тем, что человеческий глаз более чувствителен к зелёному цвету,чем к красному и синему вместе взятым. Избыточность по зелёным пикселям даёт изображение, которое кажется менее шумным и более чётким, чем казалось бы при равном количестве цветов. Это объясняет также, почему шум в зелёном канале намного меньше, чем в остальных (пример см. в статье «Что такое визуальный шум»).
Исходная картинка (в двукратном увеличении) | Что видит ваша камера (через матрицу Байера) |
Примечание: не все цифровые камеры используют матрицу Байера, но это наиболее распространённый вариант. Сенсор Foveon, используемый в камерах Sigma SD9 и SD10, регистрирует все три цвета в каждом пикселе. Камеры Sony снимают четыре цвета в похожем массиве: красный, зелёный, синий и изумрудно-зелёный.
Дебайеризация
Дебайеризация — это процесс трансляции матрицы первичных цветов Байера в итоговое изображение, в котором содержится полная информация о цвете в каждом пикселе. Как это возможно, если камера не в состоянии непосредственно измерить полный цвет? Один из способов понять этот процесс — это рассматривать каждый массив 2×2 из красной, двух зелёных и синей ячейки как одну полноцветную ячейку.
→ |
В целом этого достаточно, но большинство камер предпринимают дополнительные шаги, чтобы получить из этой матрицы ещё больше информации об изображении. Если бы камера рассматривала каждый из массивов 2×2 как одну точку, её разрешение упало бы вдвое и по горизонтали, и по вертикали (то есть, вчетверо). С другой стороны, если бы камера считала цвета, используя несколько перекрывающихся массивов 2×2, она могла бы получить более высокое разрешение, чем это возможно для единичных массивов 2×2. Для увеличения количества информации об изображении можно использовать следующую комбинацию из перекрывающихся массивов 2×2.
Обратите внимание, что мы не рассчитывали информацию об изображении на границах матрицы, поскольку предположили, что изображение имеет продолжение в каждую из сторон. Если бы это действительно были границы матрицы, расчёты оказались бы менее точны, поскольку здесь нет больше пикселей. Это не является проблемой, поскольку для камер с миллионами пикселей граничная информация может быть смело отброшена.
Существуют и другие алгоритмы разбора матриц, которые могут извлечь несколько большее разрешение, собирают менее шумные изображения или адаптивно реагируют на разные участки изображения.
Дефекты дематризации
Изображения с мелкими деталями на пределе разрешающей способности цифрового сенсора могут порой сбивать с толку алгоритм разбора матрицы, приводя к неестественно выглядящим результатам. Наиболее известный дефект — это муар, который может проявляться как повторяющиеся текстуры, дефекты цветопередачи или образованные из пикселей сюрреалистические лабиринты:
Выше показаны два снимка с различным увеличением. Обратите внимание на появление муара во всех четырёх нижних квадратах, а также на третий квадрат первого снимка (плохо различимый). В уменьшенной версии в третьем квадрате можно наблюдать как лабиринты, так и дефекты цвета. Такие дефекты зависят как от типа текстуры, так и от программного обеспечения, которое производит исходный (RAW) файл цифровой камеры.
Матрица микролинз
Вас может заинтересовать, почему на первой диаграмме в этой главе ёмкости не были расположены непосредственно друг рядом с другом. У сенсоров в камерах в действительности нет полного перекрытия поверхности. На самом деле зачастую под пиксели отведено не более половины общей площади сенсора, поскольку нужно где-то разместить остальную электронику. Для каждой ёмкости существуют направляющие, которые отправляют фотоны в ту или иную ячейку. В цифровых камерах применяются «микролинзы» поверх каждой группы пикселей, чтобы повысить их способность собирать свет. Эти линзы подобно воронкам собирают фотоны, которые могли иначе остаться неиспользованными.
Хорошо сконструированные микролинзы могут улучшить сбор фотонов каждой ячейкой и, следовательно, создать изображения, в которых содержится меньше шумов при одинаковом времени экспозиции (выдержке). Производители камер оказались способны использовать усовершенствования в производстве микролинз, чтобы снизить или сохранить уровень шума в новейших камерах с высоким разрешением, несмотря на сокращение размеров ячейки в связи с упаковкой большего числа мегапикселей в тот же размер сенсора.
За дополнительной информацией о сенсорах цифровых камер обратитесь к главе:
Размеры сенсоров цифровых камер: как они влияют на фотографию?
Что такое матрица в камере видеонаблюдения ? В чем разница и какая лучше ?
При выборе камеры видеонаблюдения многие покупатели руководствуются углом обзора объектива, фокусным расстоянием, количеством пикселей, но почему-то забывают о качественных характеристиках матрицы. Зачем нужна матрица в видеокамере Dahua, какой она бывает и чем отличается – обо всем этом вы узнаете из данной статьи.
Что из себя представляет матрица?
Матрицей называют специализированную интегральную микросхему, состоящую из светочувствительных фотодиодов, работающую по определенной технологии. Другими словами, она является основным фотоэлементом видеокамеры, который позволяет преобразовывать свет в электричество.
Классификация матриц
Существует два основных типа матриц:
- CCD. Изначально вся информация собирается в аналоговом виде, а затем оцифровывается.
- CMOS. В данном случае каждый пиксель оцифровывается изначально.
У каждого типа есть свои плюсы и минусы. К положительным характеристикам матриц CCD следует отнести:
- отличную эффективность;
- высокую чувствительность;
- небольшое количество шумов.
Что касается минусов, то здесь необходимо отметить такие факторы, как:
- высокая стоимость;
- большое количество потребления энергии;
- сложная технология производства.
Если говорить о матрицах CMOS, то они смотрятся более предпочтительнее, так как обладают:
- низкой ценой;
- небольшим энергопотреблением;
- простотой в производстве;
- наличием возможности развивать технологию дальше;
- быстродействием, позволяющим фиксировать до 500 кадров в секунду.
Из слабых сторон CMOS следует отметить только низкую чувствительность.
Помимо типа работы, матрица в камере видеонаблюдения делится по своему типоразмеру, который указывается в виде дробного числа, например, 1/4″, и измеряется по диагонали в дюймах. Чем больше физический размер сенсора, тем крупнее пиксели, а соответственно и лучше происходит улавливание света. Свободное расположение пикселей снижает количество взаимных помех и паразитных шумов, что позволяет получить более качественное изображение. И еще большая матрица способствует получению большего угла обзора в случае применения объектива с одним фокусным расстоянием. Ознакомится с камерами Dahua и различными типами матриц можете в категории видеокамеры dahua-technology.com.ua/videokamery/
2018-05-14 14:45:24
0
962
Комментарии:
Запрос наслов — что вы называете эффектом замедления и движения камеры, похожего на матрицу?
Обычно это называется MoCo, или фотография с контролем движения.
Новаторские и недорогие решения реализуются с использованием нескольких камер, за исключением Intel FreeD или True Vue, которые используют две камеры в каждой точке для создания трехмерных объемных пикселей, современные и недорогие системы используют одну высокоскоростную камеру на манипуляторе робота.
Независимо от используемого оборудования, постобработки и программного обеспечения, записываемое движение контролируется , получающим снимок в реальном времени из желаемой позиции.
Это можно использовать, когда воссоздание кадра или воссоздание одного и того же кадра с разными актерами и объектами обходится дорого, что позволяет комбинировать их в посте и выглядеть так, как если бы снимок был сделан обычным образом одной камерой (и проворным оператором камеры). . Иногда один и тот же актер появляется несколько раз, чтобы быть их собственным близнецом или прошлым / будущим я.
Sony называет свою версию «Управление несколькими камерами».
Технология Intel True Vue использует две камеры в каждой точке и кольцо из 30-50 пар вокруг области съемки, часто стадиона, для создания трехмерных вокселей.Это позволяет им плавно интерполировать между парами, даже чтобы взять поле для просмотра глазами игрока. Intel использует промышленные камеры JAI.
Видео Intel True Vue:
Робототехника
Замедление создается при съемке на высокой скорости, но отслеживание камерой называется «управление движением». Термин «время пули» получил широкое распространение из-за использования эффекта в фильме «Матрица», большинство применений управления движением (MoCo) не связаны с стрельбой пулями или компьютерной графикой и несколькими камерами.Современный MoCo использует одну высокоскоростную камеру, установленную на манипуляторе.
Речь идет больше о возможности точно перемещать камеру по заданному курсу с заданной скоростью и повторяемо, чем о пулях.
Момент застывания
Управление движением можно использовать для сопоставления снимков массива камер. Снимки с массива камеры также известны как «замороженный момент», «нарезка времени» или «время пули» (прославленные в «Матрице»). Поскольку массив камер представляет собой движущийся путь камеры, тот же самый путь может быть определен в перемещении управления движением.Это позволяет комбинировать все другие эффекты, которые возможны при управлении движением, с замороженными моментами. Например, проход живого действия, снятый с управлением движением, позволяет вставить движущегося человека в замороженную сцену.
Motion Control также можно использовать для плавного перехода к кадрам со стоп-кадром и выхода из них. Перемещение камеры может начинаться с движения управления движением и в какой-то момент переключаться на массив камер. Система управления движением перемещает положение камеры движущегося изображения из начальной позиции в первую позицию массива камер, в этот момент массив камер запускается.В постобработке два кадра соединяются прямым монтажом.
Используя один дубль, одну бутылку, они смогли сделать три снимка и перефокусировать глубину резкости для каждого из них. Этот клип был извлечен из демонстрационной катушки г-на МоКо «Bolt Stiller Show Reel» и был обрезан и обрезан в соответствии с параметрами загрузки.
См. Также: Марк Робертс Управление движением: «Семь применений управления движением»:
Repeat Moves — Создание и исчезновение элементов, репликация толпы, изменение фона и переднего плана, съемка действий с разной скоростью, объединение элементов.
Scaled Moves — Съемка миниатюр, вращение движений камеры, согласование масштабов.
Controlled Moves — для контролируемой видеосъемки и освещения продуктов.
Экспорт CGI — объединение живого действия с CGI.
Импорт CGI — сложные движения, необычные формы, невозможные движения, предварительная визуализация.
Интеграция замороженного момента — для смешивания живого действия и временного квантования или «пулевого времени».
Специальные музыкальные видеоэффекты — запуск звукового временного кода.
Матрицы преобразования цвета в цифровых камерах: учебное пособие
1.
Введение
Рассмотрите возможность преобразования сцены, снятой цифровой камерой в необработанном пространстве камеры, в цифровое изображение, подходящее для отображения с использованием цветового пространства, ориентированного на вывод. По крайней мере, есть два принципиально важных вопроса, которые необходимо решить, пытаясь правильно воспроизвести внешний вид цвета. Во-первых, функции отклика цифровых фотоаппаратов отличаются от функций зрительной системы человека (HVS).Широко используемый подход к этой проблеме состоит в том, чтобы рассматривать цветовые пространства как векторные пространства и учитывать различия в ответах путем введения матрицы преобразования цвета. Типом матрицы преобразования цвета, который обычно встречается, является матрица характеристик 3 × 3 T_, которая определяет линейную взаимосвязь между необработанным пространством камеры и эталонным цветовым пространством CIE XYZ:
В общем, необработанные пространства камеры не являются колориметрическими, поэтому приведенное выше преобразование приблизительное. Взаимосвязь может быть оптимизирована для данного источника света путем минимизации цветовой ошибки.Примечательно, что это означает, что оптимальная T_ зависит от характера источника света сцены, 1 , 2 , включая его точку белого (WP). Методология характеристики для определения оптимального T_ описана в разд. 2.4, вместе с иллюстрацией того, как T_ следует нормализовать на практике.Вторая проблема, которую необходимо решить, — это восприятие сцены освещения WP. Хотя различные механизмы адаптации, используемые HVS, сложны и не до конца понятны, считается, что HVS естественным образом использует механизм хроматической адаптации для регулировки своего восприятия WP освещения сцены для достижения постоянства цвета при различных условиях освещения. 3 , 4 Поскольку датчики цифровых камер не адаптируются естественным образом таким образом, неправильный баланс белого (WB) будет возникать, когда WP освещения сцены отличается от эталонного белого цветового пространства, связанного с выходом, используемого для кодировать выходное изображение, созданное камерой. Как показано в разд. 3, цифровые камеры должны пытаться имитировать этот механизм хроматической адаптации, используя соответствующее преобразование хроматической адаптации (CAT).
Как обсуждалось в разд.4, современные смартфоны и коммерческие необработанные преобразователи обычно вычисляют оптимальную характеристическую матрицу T_ путем интерполяции между двумя предварительно установленными характеристическими матрицами в соответствии с оценкой WP освещения сцены, и CAT реализуется после применения T_. В традиционных цифровых камерах преобразование цвета обычно переформулируется в терминах множителей необработанных каналов и матриц вращения цвета R_. Этот подход предлагает несколько преимуществ, как обсуждалось в разд. 5. Аналогичный, но более простой в вычислительном отношении подход используется конвертером исходных файлов DCRaw с открытым исходным кодом, как обсуждалось в разд.6. Цифровой негативный (DNG) конвертер Adobe ® с открытым исходным кодом предлагает два метода преобразования цвета, и природа цветовых матриц Adobe и прямых матриц обсуждается в разд. 7. Наконец, в разд. 8.
2.
Camera Raw Space
2.1.
Gamut
Необработанное пространство камеры для данной модели камеры возникает из ее набора функций спектральной чувствительности или функций отклика камеры:
Eq. (2)
Ri (λ) = QEi (λ) eλhc, где e — заряд элемента, λ — длина волны, h — постоянная Планка, а c — скорость света.Внешний квантовый выход для мозаики i определяется формулойEq. (3)
QEi (λ) = TCFA, i (λ) η (λ) T (λ) FF, где TCFA, i — функция пропускания матрицы цветных фильтров (CFA) для мозаики i, η (λ) — заряд эффективность сбора или внутренняя квантовая эффективность фотоэлемента, а T (λ) — функция пропускания границы раздела SiO2 / Si. 5 Коэффициент заполнения определяется как FF = Adet / Ap, где Adet — это светочувствительная область обнаружения на фотосайте, а Ap — это площадь фотосайта. Спектральная полоса пропускания камеры должна идеально соответствовать видимому спектру, поэтому требуется фильтр, блокирующий инфракрасное излучение.Аналогично функциям отклика конуса глаза HVS, которые можно интерпретировать как определение количества основных цветов конуса глаза, которые глаз использует для восприятия цвета при заданном λ, функции отклика камеры можно интерпретировать как указание количества основные цвета необработанного пространства камеры на каждом λ. Например, измеренные функции отклика камеры Nikon D700 показаны на рис. 1. Однако необработанное пространство камеры является колориметрическим, только если выполняется условие Лютера-Айвса, 7 — 9 , что означает, что отклик камеры функционирует должно быть точным линейным преобразованием функций отклика глазного конуса, которые косвенно представлены как линейное преобразование функций согласования цветов CIE для стандартного наблюдателя.
Рис. 1
Функции отклика камеры Nikon D700. Пиковая спектральная чувствительность нормирована на единицу. Данные получены из исх. 6.
Хотя функции отклика конуса глаза подходят для захвата деталей с помощью простого объектива человеческого глаза, в цифровых камерах используются составные линзы, которые были скорректированы на хроматическую аберрацию. Следовательно, функции отклика камеры разработаны с учетом других соображений. 10 , 11 Например, лучшее соотношение сигнал / шум достигается за счет уменьшения перекрытия функций отклика, что соответствует характеристической матрице с меньшими недиагональными элементами. 10 — 12 Действительно, незначительные цветовые ошибки могут быть заменены на лучшее соотношение сигнал / шум. 10 — 13 С другой стороны, повышенная корреляция в измерении длины волны может улучшить производительность процедуры цветовой демозаики. 14 Из-за таких компромиссов, а также ограничений производства фильтров, функции отклика камеры на практике не являются точными линейными преобразованиями функций отклика конуса глаза.Следовательно, необработанные пространства камеры не являются колориметрическими, поэтому камеры показывают метамерную ошибку. Метамеры — это разные спектральные распределения мощности (SPD), которые HVS воспринимают как один и тот же цвет при просмотре в одинаковых условиях. Камеры с метамерной ошибкой дают разные цветовые отклики на эти метамеры. Метамерная ошибка камеры может быть определена экспериментально и количественно оценена с помощью индекса метамерии чувствительности цифровой фотокамеры (DSC / SMI). 8 , 15
На рисунке 2 показано спектральное геометрическое место HVS на диаграмме цветности xy, которая представляет собой двумерную проекцию цветового пространства CIE XYZ, которое описывает относительные пропорции трехцветных значений.Обратите внимание, что сам спектральный локус имеет форму подковы, а не треугольника из-за того, что перекрытие функций ответа глаз-конус предотвращает независимую стимуляцию глазных колбочек, поэтому цветности, соответствующие координатам цветности (x, y), расположены за пределами спектральные локусы невидимы или воображаемы, поскольку они более насыщены, чем чистые цвета спектра. Цветовой охват необработанного пространства камеры Nikon D700 также показан на рис. 2 и сравнивается с несколькими стандартными цветовыми пространствами для вывода, а именно sRGB, 16 Adobe ® RGB, 17 и ProPhoto RGB. 18 Из-за расположения основных цветов необработанного пространства камеры на диаграмме цветности xy, некоторые области необработанного пространственного диапазона камеры не достигают спектрального геометрического места HVS, поскольку эти области лежат за пределами треугольной формы, доступной для аддитивных линейных комбинаций три праймериз. Кроме того, заметным следствием метамерной ошибки камеры является то, что необработанная пространственная гамма камеры искажается от треугольной формы, доступной для аддитивных линейных комбинаций трех основных цветов.Некоторые области даже вытеснены за пределы треугольника, доступного для цветового пространства CIE XYZ. 19 См. Исх. 19 для дополнительных примеров.
Рис. 2
Палитра необработанного пространства камеры для Nikon D700 (голубая заштрихованная область), нанесенная на диаграмму цветности xy. Цветовая гамма не является идеальным треугольником, поскольку нарушается условие Лютера-Айвса, что также объясняет, почему определенные области выталкиваются за пределы треугольника, доступного для цветового пространства CIE XYZ, определенного основными цветами, расположенными в (0,0), (0,1 ) и (1,0).Граница серой заштрихованной области в форме подковы определяет спектральный локус HVS. Насыщенность уменьшается по мере удаления от спектрального локуса внутрь. Для сравнения указаны (треугольные) гаммы нескольких цветовых пространств, относящихся к стандартному выводу.
Для определения гаммы необработанного пространства камеры первым шагом является измерение функций отклика камеры с использованием монохроматора на дискретном наборе длин волн в соответствии с методом A стандарта ISO 17321-1. 15 Для каждой длины волны функции отклика камеры выдают необработанные относительные трехцветные значения RGB в необработанном пространстве камеры.Второй шаг — преобразовать RGB в относительные значения CIE XYZ путем применения матрицы характеристик, которая удовлетворяет уравнению. (1). Впоследствии координаты цветности (x, y), соответствующие спектральному локусу необработанного пространства камеры, могут быть вычислены с использованием обычных формул, x = X / (X + Y + Z) и y = Y / (X + Y + Z ).
Поскольку данная матрица характеристик оптимизирована для использования с осветительным прибором, то есть освещением сцены, используемым для выполнения характеристики, другим следствием метамерной ошибки камеры является то, что необработанная пространственная гамма камеры может изменяться в зависимости от применяемой матрицы характеристик.Цветовой охват необработанного пространства камеры Nikon D700, показанный на рис. 2, был получен с использованием матрицы характеристик, оптимизированной для источника света D65 CIE. На рисунке 3 показано, как изменяется цветовая гамма, когда вместо нее применяется матрица характеристик, оптимизированная для источника A CIE.
Рис. 3
То же, что и на рис. 2, за исключением того, что для получения необработанного пространственного охвата камеры использовалась матрица характеристик, оптимизированная для источника света CIE A, а не матрица характеристик, оптимизированная для источника света CIE D65.
2.2.
Необработанные значения
Значения цвета в необработанном пространстве камеры выражаются в виде цифровых необработанных значений для каждого необработанного цветового канала, которые аналогичны трехцветным значениям в цветовых пространствах CIE. Для CFA, который использует три типа цветных фильтров, таких как Bayer CFA, 20 , необработанные значения, выраженные с использованием единиц, относящихся к выходу, т. Е. Данных / цифровых чисел (DN) или аналого-цифровых единиц, относятся к следующим набор необработанных каналов, обозначенных здесь каллиграфическими символами:
Eq.(4)
[nDN, 1nDN, 2nDN, 3nDN, 4] = [RG1G2B]. Хотя здесь для представления блока Байера использовалась векторная нотация, истинный необработанный вектор пикселей получается только после выполнения цветной демозаики в в этом случае с каждым фотосайтом будет связано четыре необработанных значения. CFA Байера использует в два раза больше зеленых фильтров, чем красный и синий, что означает, что в целом будут получены два значения G1 и G2, связанные с разными позициями в каждом блоке Байера. Это выгодно с точки зрения общего отношения сигнал / шум, поскольку фотосайты, принадлежащие зеленой мозаике, более эффективны с точки зрения фотопреобразования.Кроме того, шаблон Байера является оптимальным с точки зрения уменьшения артефактов наложения спектров, когда три типа фильтров расположены на квадратной сетке. 14 Хотя считается, что большее количество зеленых фильтров обеспечивает повышенное разрешение для сигнала яркости, поскольку стандартная функция яркости 1924 CIE для пиков фотопического зрения при 555 нм, 20 утверждалось, что CFA Байера с двукратным больше синих пикселей, чем красных и зеленых было бы оптимальным для этой цели. 14 При демозаике необработанных данных, соответствующих стандартному CFA Байера, окончательный результат покажет ложные лабиринты или сетки, если соотношение между G1 и G2 меняется по изображению. 21 Программные необработанные преобразователи могут усреднять G1 и G2 вместе, чтобы устранить такие артефакты. 21Поскольку в принципе существует только три функции отклика камеры, R1 (λ), R2 (λ) и R3 (λ), цветовая характеристика для байеровского CFA рассматривает G1 и G2 как один канал, G. Необработанные значения можно выразить следующим образом:
Ур.(5)
R = k∫λ1λ2R1 (λ) E˜e, λdλ, G = k∫λ1λ2R2 (λ) E˜e, λdλ, B = k∫λ1λ2R3 (λ) E˜e, λdλ. Функции отклика камеры определены формулой. (2) интегрирование производится по спектральной полосе пропускания камеры, E˜e, λ — средняя спектральная освещенность на фотосайте, а k — постоянная величина. Выражения для E˜e, λ и k приведены в Приложении.Фактические необработанные значения, полученные на практике, представляют собой квантованные значения, смоделированные путем взятия целой части уравнения. (5). При преобразовании из необработанного пространства камеры полезно нормализовать исходные значения до диапазона [0,1], разделив уравнение.(5) необработанной точкой отсечения, которая является наивысшим доступным DN.
2.3.
Эталонный белый
Используя приведенную выше нормализацию, эталонный белый цвет необработанного пространства камеры определяется единичным вектором
, выраженным в терминах трехцветных значений CIE XYZ или координат цветности (x, y) с Y = 1, эталонный белый необработанного пространства камеры — это WP освещения сцены, которая дает максимально равные исходные значения для нейтрального объекта. (WP SPD определяется трехцветными значениями CIE XYZ, которые соответствуют 100% нейтральному диффузному отражателю, освещенному этим SPD.)Отсюда следует, что эталонный белый цвет необработанного пространства камеры в принципе можно определить экспериментально, найдя источник света, который дает равные исходные значения для нейтрального объекта. Обратите внимание, что если для декодирования необработанного файла используется конвертер RAW с открытым исходным кодом DCRaw, необходимо отключить WB. С точки зрения колориметрии CIE, эталонный белый цвет необработанного пространства камеры формально определяется формулой
Eq. (7)
[X (WP) Y (WP) Z (WP)] сцена = T_ [R (WP) = 1G (WP) = 1B (WP) = 1] сцена, где Y (WP) = 1 и нижние индексы означают, что WP — это точка освещения сцены.Матрица характеристик 3 × 3 T_ преобразуется из необработанного пространства камеры в CIE XYZ и должна быть оптимизирована для требуемого освещения сцены. Оптимальное значение T_ на данном этапе неизвестно, но в принципе может быть определено с помощью процедуры оптимизации, описанной в разд. 2.4.Хотя цветовые пространства CIE используют нормализованные единицы, так что их эталонные белые цвета соответствуют WP стандартных источников света CIE, необработанные пространства камеры не нормализуются естественным образом таким образом. Следовательно, эталонный белый цвет необработанного пространства камеры не обязательно является нейтральным цветом, поскольку он обычно расположен далеко от планковского локуса и поэтому не обязательно имеет связанную коррелированную цветовую температуру (CCT).
Обратите внимание, что WP может быть связан с CCT при условии, что его координаты цветности (x, y) достаточно близки к планковскому локусу, но существует много таких координат, которые соответствуют одной и той же CCT. Чтобы различать их, может быть присвоено значение Duv, неофициально называемое цветовым оттенком. 22 Это определяется путем преобразования (x, y) в координаты цветности (u, v) на диаграмме цветности CIE 1960 UCS, 23 , 24 , где изотермы нормальны для локуса Планка.В этом представлении CCT является допустимой концепцией только для координат (u, v), расположенных на расстоянии от планковского локуса, которое находится в пределах Duv = ± 0,05 вдоль изотермы. 25
Чтобы увидеть, что эталонный белый цвет необработанного пространства камеры далек от планковского локуса, рассмотрим исходные значения Nikon D700 для нейтрального диффузного отражателя, освещенного источниками света CIE A и D65, соответственно,
Eq. (8)
[R (WP) = 0,8878G (WP) = 1,0000B (WP) = 0,4017] A = T_A − 1 [X (WP) = 1,0985Y (WP) = 1,0000Z (WP) = 0.3558] A [R (WP) = 0,4514G (WP) = 1,0000B (WP) = 0,8381] D65 = T_D65−1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где T_A и T_D65 — это примерные характеристические матрицы, оптимизированные для осветительных приборов CIE A и D65, соответственно. Как показано на рис. 4, WP этих стандартных источников света очень близки к планковскому локусу. Источник света A имеет CCT = 2856 K и Duv = 0,0, а источник света D65 имеет CCT = 6504 K и Duv = 0,0032. Очевидно, что указанные выше необработанные значения Nikon D700 сильно отличаются от единичного вектора необработанного пространства камеры, и в обоих случаях необходимо применить большие множители к необработанным значениям красного и синего пикселей.Эти множители известны как умножители необработанных каналов, поскольку они обычно применяются к необработанным красным и синим каналам перед цветной демозаикой как часть стратегии преобразования цвета, используемой внутренними механизмами обработки изображений традиционных цифровых камер.Рис. 4
Расчетные эталонные белые пространства необработанных пространств Nikon D700 и Olympus E-M1 по сравнению с WP осветительных приборов CIE A и D65. Планковский локус представлен черной кривой. Цветом отображаются только видимые цветности, содержащиеся в цветовом пространстве sRGB.
Оценку эталонного белого Nikon D700 можно получить, аппроксимируя уравнение. (7) с использованием легко доступной матрицы характеристик вместо T_. Применение T_A дает (x, y) = (0,3849,0,3058), что соответствует Duv = -0,0378. Это связано с CCT = 3155 K, так как значение Duv находится в пределах допустимого предела, но на рис. 4 показано, что цветовой оттенок является сильным пурпурным. Это справедливо для типичных пространств необработанного снимка в целом. 21 Аналогичная оценка для камеры Olympus E-M1 дает (x, y) = (0.3599,0,2551), что соответствует Duv = −0,0637. У него нет связанной CCT, а цветовой оттенок — очень сильный пурпурный.
Хотя тот факт, что эталонные белые цвета необработанного пространства камеры не являются нейтральными с точки зрения колориметрии CIE, не имеет отношения к окончательному воспроизведенному изображению, он будет показан в разд. 5 видно, что эталонный белый цвет необработанного пространства камеры используется в качестве полезного промежуточного шага в стратегии преобразования цвета, используемой в традиционных цифровых камерах.
2.4.
Цветовая характеристика камеры
Вспомните линейное преобразование из необработанного пространства камеры в CIE XYZ, определенное уравнением.(1):
, где T_ — характеристическая матрица 3 × 3:Eq. (9)
T _ = [T11T12T13T21T22T23T31T32T33]. Преобразование цветов является приблизительным, поскольку условие Лютера-Айвса не выполняется точно. Как упомянуто во введении, T_ может быть оптимизирован для характеристического источника света, то есть освещения сцены, используемого для выполнения характеризации. 1 , 2 Оптимальная матрица T_ зависит от самого SPD, но в значительной степени зависит от характеристического освещения WP при условии, что источник света представляет реальный SPD.Матрицы характеристик, оптимизированные для известных источников света, могут быть определены с помощью процедур минимизации цветовых ошибок, основанных на фотографиях, сделанных на стандартной цветовой диаграмме. 2 Хотя были разработаны различные методы минимизации, включая методы сохранения WP, 26 процедура, описанная ниже, основана на стандартизированном методе B ISO 17321-1. 15
Обратите внимание, что ISO 17321-1 использует обработанные изображения, выводимые камерой, а не необработанные данные, и, следовательно, требует инверсии функции оптоэлектронного преобразования камеры (OECF). 27 OECF определяет нелинейную взаимосвязь между освещенностью на плоскости датчика и уровнями цифрового вывода видимого выходного изображения, такого как файл JPEG, созданный камерой. Чтобы обойти необходимость экспериментального определения OECF, ниже описывается вариант метода B из ISO 17321-1. В этом методе используется конвертер исходных данных с открытым исходным кодом DCRaw для декодирования необработанного файла, чтобы необработанные данные можно было использовать напрямую. 28 , 29
1.Сделайте снимок таблицы цветов, освещенной указанным источником света. Поскольку исходные значения масштабируются линейно, важны только их относительные значения. Однако число f N и продолжительность экспозиции t следует выбирать так, чтобы избежать клиппирования.
2. Рассчитайте относительные значения тристимула XYZ для каждого участка цветовой диаграммы:
Ур. (10)
X = k∫λ1λ2x¯ (λ) Ee, λR (λ) dλY = k∫λ1λ2y¯ (λ) Ee, λR (λ) dλZ = k∫λ1λ2z¯ (λ) Ee, λR (λ) dλ , где Ee, λ — спектральная освещенность, падающая на цветовую диаграмму, измеренная с помощью спектрометра; x¯ (λ), y‾ (λ) и z¯ (λ) — функции согласования цветов цветового пространства CIE XYZ; и интегрирование дискретизируется в сумму с шагом 10 нм и ограничивает λ1 = 380 нм и λ2 = 780 нм.Если не используется трехцветный колориметр, расчет требует знания спектральной отражательной способности каждого участка. Спектральная отражательная способность в приведенных выше уравнениях обозначена R (λ), и ее не следует путать с функциями отклика камеры. Константу нормализации k можно выбрать так, чтобы Y находился в диапазоне [0,1] с использованием белого пятна в качестве белого эталона.3. Получите линейное выходное изображение с демозаикой прямо в необработанном пространстве камеры без преобразования в любое другое цветовое пространство.Гамма-кодирование, кривые тона и баланс белого должны быть отключены. Поскольку настоящий метод позволяет обойтись без необходимости определять и инвертировать OECF, очень важно отключить WB; в противном случае к необработанным каналам могут применяться множители сырых каналов. При использовании конвертера RAW с открытым исходным кодом DCRaw подходящей командой является
dcraw -v -r 1 1 1 1-o 0 -4 -T filename. Это дает 16-битный линейный выходной файл TIFF с демозаикой в необработанном пространстве камеры. Если вы работаете с необработанными каналами, а не с необработанными пиксельными векторами с демозаикой, подходящей командой является dcraw -v -D -4 -T filename.Вышеупомянутые команды DCRaw объяснены в таблице 3.4. Измерьте средние значения R, G и B по блоку пикселей размером 64 × 64 в центре каждого фрагмента. Затем каждый патч может быть связан с соответствующим средним необработанным вектором пикселей.
5. Постройте матрицу A_ 3 × n, содержащую векторы цветового пространства XYZ для каждого фрагмента 1,…, n в виде столбцов:
Eq. (11)
A _ = [X1X2 ⋯ XnY1Y2 ⋯ YnZ1Z2 ⋯ Zn]. Точно так же постройте матрицу B_ 3 × n, содержащую соответствующие необработанные векторы пикселей в виде столбцов:Eq.(12)
B _ = [R1R2 ⋯ RnG1G2 ⋯ GnB1B2 ⋯ Bn].6. Оцените характеристическую матрицу 3 × 3 T_, которая преобразует B_ в A_:
Предварительное решение получается с использованием минимизации линейных наименьших квадратов: 2 , 15Ур. (14)
T_ = A_B_T (B_B_T) -1, где верхний индекс T обозначает оператор транспонирования.7. Используйте предварительную оценку T_, чтобы вычислить новый набор оцененных значений тристимула CIE XYZ A_ ‘в соответствии с формулой. (13).Преобразуйте A_ и A′_ в перцептивно однородное эталонное цветовое пространство CIE LAB и вычислите цветовую разницу ΔEi между оцененными значениями трехцветного стимула и реальными значениями трехцветного стимула для каждого фрагмента i. Набор {ΔEi} можно использовать для вычисления DSC / SMI. 8 , 15 Обратите внимание, что для точного удовлетворения условию Лютера-Айвса необходимо, чтобы A _ ′ = A_, и в этом случае будет получена оценка DSC / SMI, равная 100.
8. Оптимизируйте T_, минимизируя {ΔEi}, используя метод нелинейной оптимизации, рекомендованный ISO 17321-1.Окончательный DSC / SMI определяет окончательную потенциальную цветовую ошибку. В идеале, включите ограничение, которое сохраняет характеристический источник света WP.
9. Масштабируйте окончательный T_ в соответствии с нормализацией, необходимой для его практического применения. Это обсуждается ниже.
Если WB был отключен на шаге 3, матрица характеристик T_ может использоваться с произвольным освещением сцены. Тем не менее, оптимальные результаты будут получены для освещения сцены с помощью WP, который точно соответствует таковой характеристического источника света.
На рисунке 5 показано, как матричные элементы оптимизированной матрицы характеристик изменяются в зависимости от CCT характеристического источника света для камеры Olympus E-M1.
Рис. 5
Изменение элементов матрицы характеристической матрицы для камеры Olympus E-M1 в зависимости от характеристического источника света CCT.
Для той же камеры на рис. 6 (a) показана фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. Когда значения RGB необработанного пространства камеры интерпретируются как значения RGB в цветовом пространстве sRGB для целей отображения без применения какой-либо матрицы цветовых характеристик, проявляется сильный оттенок зеленого цвета, который возникает из-за большей передачи зеленого фильтра Байера.На рисунке 6 (b) показана та же фотография, преобразованная в цветовое пространство sRGB путем применения оптимизированной матрицы характеристик T_, за которой следует матрица, преобразующая цвета из цветового пространства CIE XYZ в sRGB. Видно, теперь цвета отображаются правильно.
Рис. 6
(a) Фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. (b) Та же фотография, преобразованная в цветовое пространство sRGB.
2,5.
Нормализация матрицы характеристик
Нормализация матрицы характеристик относится к масштабированию всей матрицы таким образом, чтобы все элементы матрицы масштабировались одинаково.Типичная нормализация, применяемая на практике, заключается в том, чтобы гарантировать, что матричные карты между характеризующим источником света WP, выраженным с использованием цветового пространства CIE XYZ, и необработанным пространством камеры, так что необработанные данные просто насыщаются, когда 100% нейтральный диффузный отражатель фотографируется под характеризующим источником света. . Зеленый необработанный канал обычно насыщается первым.
Например, если характеристический источник света — D65, то T_ может быть нормализовано таким образом, чтобы его обратное значение обеспечивало следующее отображение:
Eq.(15)
[R (WP) G (WP) B (WP)] D65 = T_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где max {R ( WP), G (WP), B (WP)} = 1. Поскольку необработанный зеленый канал обычно первым насыщается при большинстве типов освещения, обычно бывает, что G (WP) = 1, тогда как R (WP) <1 и B (WP) <1.Например, матрицы характеристик Olympus E-M1, используемые на рис. 5 для калибровочных осветительных приборов 4200 и 6800 K, определяются формулой
Eq. (16)
T_4200 K = [0,86800,33950,21330,28830,8286-0,02160.0425−0.26471.7637], T_6800 K = [1.21050.25020.18820.45860.8772−0.13280.0936−0.27881.9121]. Эти матрицы нормализованы так, что WP характеристического источника света отображается в исходные значения, где зеленый необработанный канал только достигает насыщения. :Ур. (17)
[R (WP) = 0,6337G (WP) = 1,0000B (WP) = 0,5267] 4200 K = T_4200 K − 1 [X (WP) = 1,0019Y (WP) = 1,0000Z (WP) = 0,6911 ] 4200 K, [R (WP) = 0,4793G (WP) = 1,0000B (WP) = 0,7312] 6800 K = T_6800 K − 1 [X (WP) = 0,9682Y (WP) = 1,0000Z (WP) = 1,1642 ] 6800 K.3.
Баланс белого
Замечательным свойством HVS является его способность естественным образом приспосабливаться к условиям окружающего освещения.Например, если на снимке, освещенном дневным светом, поместить 100% нейтральный диффузный отражатель, он будет иметь нейтральный белый цвет. Позже в тот же день, когда происходит изменение цветности или CCT освещения сцены, можно ожидать, что цвет отражателя изменится соответствующим образом. Однако отражатель по-прежнему будет иметь нейтральный белый цвет. Другими словами, воспринимаемый цвет объектов остается относительно постоянным при различных типах освещения сцены, что известно как постоянство цвета. 3 , 4
Механизм хроматической адаптации, с помощью которого HVS обеспечивает постоянство цвета, сложен и не до конца понятен, но упрощенное объяснение состоит в том, что HVS стремится снизить цветность источника света. 30 Еще в 1902 году фон-Крис предположил, что это достигается независимым масштабированием каждой функции отклика конуса глаза. 3 , 4 Цветовой стимул, который наблюдатель, адаптированный к окружающим условиям, считает нейтральным белым (идеально ахроматическим со 100% относительной яркостью), определяется как адаптированный белый. 31
Поскольку функции отклика камеры естественным образом не имитируют HVS за счет дисконтирования цветности освещения сцены, выходное изображение будет выглядеть слишком теплым или слишком холодным, если оно отображается с использованием освещения с WP, которое не соответствует адаптированному белому для фотографической сцены во время съемки. Это называется неправильным ББ. Проблема может быть решена путем реализации следующей вычислительной стратегии.
1. Сообщите камере об адаптированном белом цвете, прежде чем делать снимок.Из-за сложной зависимости истинно адаптированного белого цвета от окружающих условий, эта задача на практике заменяется более простой задачей, а именно идентифицировать освещение сцены WP. Например, предустановка баланса белого, соответствующая освещению сцены, может быть выбрана вручную, оценка CCT освещенности сцены может быть введена вручную, или камера может вычислить свою собственную оценку путем анализа необработанных данных с использованием автоматической функции баланса белого. Во всех случаях оценка камеры для WP освещения сцены известна как нейтральный 32 камеры или принятый белый (AW). 31 (Этот этап оценки освещенности не следует путать с WB. Оценка освещенности относится к вычислительным подходам, используемым автоматической функцией WB для оценки освещенности сцены WP. Очень простой подход к оценке освещенности — это метод «серого мира», 33 , который предполагает, что среднее значение всех цветов сцены окажется ахроматическим.Другой простой подход состоит в предположении, что самый яркий белый, вероятно, будет соответствовать освещению сцены WP. 34 Однако практические алгоритмы оценки освещенности намного сложнее. 35 , 36 )
2. Выберите стандартный эталонный белый цвет, который будет использоваться при отображении выходного изображения. Если изображение будет отображаться с использованием стандартного цветового пространства, связанного с выводом, такого как sRGB, выбранный эталонный белый будет соответствовать цветовому пространству с указанием вывода, которым в случае sRGB является источник света CIE D65.
3.Хроматически адаптируйте цвета изображения, адаптируя оценку WP освещения сцены (AW) так, чтобы он стал опорным белым для выбранного цветового пространства, ориентированного на вывод. Этот шаг балансировки белого достигается применением CAT.
CAT необходимо применять как часть общего преобразования цвета из необработанного пространства камеры в выбранное цветовое пространство, ориентированное на вывод. Существуют разные подходы к объединению этих компонентов. Типичный подход, используемый в науке о цвете, — это преобразование из необработанного пространства камеры в CIE XYZ, применение CAT, а затем преобразование в выбранное цветовое пространство, указанное на выходе.В случае sRGB,
Eq. (18)
[RLGLBL] D65 = M_sRGB − 1 CAT_AW → D65 T_ [RGB] сцена, где T_ — это матрица характеристик, которая преобразует необработанное пространство камеры в CIE XYZ и оптимизирована для сцены AW, матрица CAT_AW → D65 в цветовом пространстве CIE XYZ применяется CAT, который адаптирует AW к эталонному белому D65 цветового пространства sRGB, и, наконец, M_sRGB-1 — это матрица, которая преобразует из CIE XYZ в линейную форму цветового пространства sRGB:Eq . (19)
M_sRGB − 1 = [3,24 · 10−1.5374-0.4986-0.96921.87600.04160.0556-0.20401.0570]. В частности, AW в необработанном пространстве камеры сопоставляется с эталонным белым цветовым пространством, указанным на выходе, определенным единичным вектором в цветовом пространстве, указанном на выходе. :Ур. (20)
[RL = 1GL = 1BL = 1] D65 = M_sRGB − 1 CAT_AW → D65 T_ [R (AW) G (AW) B (AW)] сцена. Когда закодированное выходное изображение просматривается на откалиброванном мониторе. , объект сцены, который HVS считал белым на момент съемки фотографии, теперь будет отображаться с использованием эталонного белого цвета D65.В идеале окружающие условия просмотра должны соответствовать условиям, определенным как подходящие для просмотра цветового пространства sRGB.Если оценка WP освещения сцены далека от истинного WP освещения сцены, то для HVS будет очевиден неверный WB. Если оценка CCT освещенности сцены выше, чем истинная CCT, фотография будет выглядеть слишком теплой. И наоборот, если оценка CCT освещенности сцены ниже, чем истинная CCT, тогда фотография будет выглядеть слишком холодной.
На рисунке 7 (а) показана фотография цветовой диаграммы, сделанная при вольфрамовом освещении 2700 K CCT с помощью камеры Olympus E-M1.Матрица характеристик T_ была применена для преобразования цветов в CIE XYZ, а затем M_sRGB-1 для преобразования цветов в sRGB. Очевидно, истинный цвет освещения сцены раскрывается, поскольку хроматическая адаптация камерой не выполняется. Другими словами, фотография выглядит слишком теплой по сравнению с эталонным белым цветом D65 в цветовом пространстве sRGB. На рисунке 7 (b) показана та же фотография после балансировки белого путем включения CAT, который хроматически адаптирует освещение сцены WP к эталонному белому цветовому пространству sRGB D65, имеющему 6504 K CCT и Duv = 0.0032 цветовой оттенок.
Рис. 7
(a) Фотография цветовой диаграммы, сделанная при вольфрамовом освещении 2700 K CCT и преобразованная в цветовое пространство sRGB для отображения без какой-либо хроматической адаптации. (b) Фотография с балансировкой белого, полученная путем включения CAT для адаптации WP освещения сцены к эталонному белому D65 цветового пространства sRGB.
3.1.
Хроматические адаптационные преобразования
CAT — это вычислительная техника для настройки WP данного SPD. Он достигает этой цели, пытаясь имитировать механизм хроматической адаптации HVS.В контексте цифровых камер наиболее важными CAT являются CAT Брэдфорда и масштабирование необработанных каналов.
В 1902 году фон-Крис постулировал, что механизм хроматической адаптации можно моделировать как независимое масштабирование каждой функции отклика конуса глаза, 3 , 4 , что эквивалентно масштабированию трехцветных значений L, M и S. в цветовом пространстве LMS. Чтобы проиллюстрировать CAT фон-Криса, рассмотрите возможность адаптации оценки WP освещения сцены (AW) к WP освещения D65:
Eq.(21)
[XYZ] D65 = CAT_AW → D65 [XYZ] сцена. В этом случае CAT фон-Криса, который должен применяться ко всем необработанным векторам пикселей, может быть записан какEq. (22)
CAT_AW → D65 = M_vK − 1 [L (D65) L (AW) 000M (D65) M (AW) 000S (D65) S (AW)] M_vK. Матрица M_vK преобразует каждый необработанный вектор пикселей в диагональ матрица в цветовом пространстве LMS. Современные формы M_vK включают в себя матрицы, основанные на основных принципах конуса, определенных CIE в 2006 г. 37 , и матрицу преобразования Ханта – Пойнтера – Эстевеса 38 , определяемую формулойEq.(23)
M_vK = [0,389710.68898−0.07868−0.229811.183400.046410.000000.000001.00000]. После применения M_vK значения L, M и S независимо масштабируются в соответствии с гипотезой фон-Криса. В данном примере коэффициенты масштабирования возникают из соотношения между WP AW и D65. Их можно получить из следующих векторов WP:Eq. (24)
[L (AW) M (AW) S (AW)] = M_vK [X (WP) Y (WP) Z (WP)] сцена [L (D65) M (D65) S (D65)] = M_vK [X (WP) = 0.9504Y (WP) = 1.0000Z (WP) = 1.0888] D65. Наконец, применяется обратная матрица преобразования M_vK для преобразования каждого необработанного вектора пикселей обратно в цветовое пространство CIE XYZ.Bradford CAT 39 можно рассматривать как улучшенную версию CAT von-Kries. ICC рекомендует упрощенную линеаризованную версию для использования в цифровых изображениях. 40 Линейная КАТ Брэдфорда может быть реализована аналогично КАТ фон-Криса, с той разницей, что трехцветные значения L, M и S заменяются на ρ, γ и β, которые соответствуют «резкости». ”Искусственный глазной конус. Матрица преобразования определяется формулой
Eq. (25)
M_BFD = [0.89510.2664-0.1614-0.75021.71350.03670.0389-0.06851.0296].Аналогично независимому масштабированию функций отклика конуса глаза, предложенному фон-Крисом, тип CAT может применяться в необработанном пространстве камеры путем прямого масштабирования необработанных каналов. Рассмотрим блок Байера для AW, полученный путем фотографирования 100% нейтрального диффузного отражателя при освещении сцены. Следующая операция адаптирует AW к эталонному белому в необработанном пространстве камеры:
Eq. (26)
[RGB] RW = CAT_AW → RW [RGB] сцена, гдеEq.(27)
CAT_AW → RW = D _ = [1R (AW) 0001G (AW) 0001B (AW)] сцена. Коэффициенты масштабирования по диагонали, известные как необработанные множители каналов, могут быть получены непосредственно из исходных данных с использованием AW, рассчитанного с помощью камера. Например, AW = D65 для освещения сцены D65, в этом случаеEq. (28)
CAT_D65 → RW = D_D65 = [1R (D65) 0001G (D65) 0001B (D65)], где R (D65), G (D65) и B (D65) извлекаются из блока Байера для 100 % нейтральный диффузный отражатель, сфотографированный при освещении сцены D65.Было обнаружено, что в контексте цифровых камер тип CAT, определяемый множителями необработанных каналов, лучше работает на практике, особенно в крайних случаях. 21 , 32 Причина в том, что множители необработанных каналов применяются в необработанном пространстве камеры до применения матрицы преобразования цвета. Необработанное пространство камеры соответствует физическому устройству захвата, но CAT, такие как линейный CAT Брэдфорда, применяются в цветовом пространстве CIE XYZ после применения матрицы преобразования цвета, содержащей ошибку. В частности, цветовые ошибки, которые были минимизированы в нелинейном цветовом пространстве, таком как CIE LAB, будут неравномерно усилены, поэтому преобразование цвета больше не будет оптимальным. 41
4.
Камеры смартфонов
Производители смартфонов вместе с разработчиками коммерческого программного обеспечения для преобразования необработанных данных обычно реализуют традиционный тип вычислительной стратегии преобразования цвета, используемый в науке о цвете, который был представлен в разд. 3. Поскольку необработанное пространство камеры преобразуется в CIE XYZ в качестве первого шага, методы обработки изображений могут применяться в цветовом пространстве CIE XYZ (или после преобразования в какое-либо другое промежуточное цветовое пространство) перед окончательным преобразованием в ориентированное на вывод Цветовое пространство RGB.
Рассмотрим преобразование с балансировкой белого из необработанного пространства камеры в цветовое пространство RGB, ориентированное на вывод. В отличие от традиционных цифровых камер, цветная демозаика обычно выполняется в первую очередь, поэтому векторная нотация, используемая для необработанного пространства камеры ниже, относится к необработанным векторам пикселей, а не к блокам Байера. В случае sRGB преобразование, которое должно применяться к каждому необработанному вектору пикселей, определяется формулой
Eq. (29)
[RLGLBL] D65 = M_sRGB − 1 CAT_AW → D65 T_ [RGB] сцена.Преобразование можно разделить на три этапа.1. После того, как камера оценила освещенность сцены WP (AW), применяется матрица характеристик T_, оптимизированная для AW, которая преобразует необработанное пространство камеры в CIE XYZ:
Eq. (30)
[XYZ] scene = T_ [RGB] scene. Оптимизированная матрица T_ обычно нормализуется так, что AW в пространстве CIE XYZ получается, когда необработанный вектор пикселей, соответствующий нейтральному диффузному отражателю, освещенному AW, достигает насыщение:Ур.(31)
[X (AW) Y (AW) Z (AW)] сцена = T_ [R (AW) G (AW) B (AW)] сцена, где Y (WP) = 1 и макс {R (AW) ), G (AW), B (AW)} = 1. Как обсуждалось в разд. 2.5, зеленый компонент обычно насыщается первым, поэтому R (AW) <1 и B (AW) <1 в целом.2. Поскольку T_ не изменяет AW, CAT применяется для достижения WB путем адаптации AW к эталонному белому в выбранном цветовом пространстве, относящемся к выходу. Это D65 в случае sRGB:
Eq. (32)
[XYZ] D65 = CAT_AW → D65 [XYZ] сцена. ICC рекомендует реализовать CAT, используя линейную матрицу CAT Брэдфорда, определенную уравнением.(25).3. Применяется матрица, которая преобразует из CIE XYZ в линейную форму выбранного цветового пространства, ориентированного на вывод. В случае sRGB,
Eq. (33)
[RLGLBL] D65 = M_sRGB-1 [XYZ] D65.
Наконец, уровни цифрового вывода выходного изображения определяются путем применения кривой нелинейного гамма-кодирования цветового пространства, указанного на выходе, и уменьшения глубины цвета до 8. В современных цифровых изображениях гамма-кривые кодирования предназначены для минимизации видимых артефакты полос, когда битовая глубина уменьшается, а внесенная нелинейность позже отменяется гаммой дисплея. 28
Чтобы убедиться, что баланс белого достигается правильно, можно выполнить описанные выше шаги для конкретного случая необработанного вектора пикселей, который соответствует AW. Как требуется по формуле. (20) было обнаружено, что это отображается на эталонный белый цвет упомянутого на выходе цветового пространства, определенного единичным вектором в этом цветовом пространстве:
[RL = 1GL = 1BL = 1] D65 = M_sRGB − 1 CAT_AW → D65 T_ [R (AW) G (AW) B (AW)] сцена.Хотя матричное преобразование, определенное формулой. (29) кажется простым, матрица характеристик T_ в принципе должна быть оптимизирована для AW.Однако непрактично определять матрицу характеристик, оптимизированную для каждой возможной WP освещения сцены, которая может возникнуть. Например, если CCT указаны с точностью до ближайшего к Кельвина, а цветовой оттенок не учитывается, тогда потребуется 12000 матриц для покрытия WP освещения сцены от 2000 до 14000 K.
Самое простое в вычислительном отношении решение, используемое на некоторых камерах мобильных телефонов, — это приблизить оптимизированная матрица характеристик T_ с использованием единственной фиксированной матрицы, оптимизированной для репрезентативного источника света.Например, это может быть освещение D65, и в этом случае T_, оптимизированное для AW, аппроксимируется как T_D65. Недостатком этого очень простого подхода является то, что преобразование цвета теряет некоторую точность, когда WP освещения сцены значительно отличается от WP репрезентативного источника света.
Как описано ниже, передовым решением проблемы является принятие подхода, используемого конвертером Adobe DNG. 32 Идея состоит в том, чтобы интерполировать между двумя предварительно установленными характеристическими матрицами, которые оптимизированы для использования с источником света с низкой или высокой CCT.Для заданного освещения сцены может быть определена интерполированная матрица, оптимизированная для CCT AW.
4.1.
Алгоритм интерполяции
Если используется продвинутый подход, упомянутый выше, оптимизированная матрица характеристик T_, требуемая уравнением. (29) можно вычислить путем интерполяции между двумя характеристическими матрицами T1_ и T2_ на основе оценки CCT освещения сцены, обозначенной CCT (AW), вместе с CCT двух характеризующих осветительных приборов, обозначенных CCT1 и CCT2, соответственно, с CCT1 Первый шаг — надлежащим образом нормализовать T1_ и T2_. Хотя характеристические матрицы обычно нормализуются в соответствии с их соответствующими характеристиками WP осветительных приборов, как показано в разд. 2.5, при реализации алгоритма интерполяции удобнее нормализовать T1_ и T2_ в соответствии с общим WP. К сожалению, на данном этапе невозможно выразить AW с использованием цветового пространства CIE XYZ, поскольку T_ еще предстоит определить.Вместо этого можно выбрать общий WP в качестве эталонного белого цветового пространства, связанного с выводом, то есть D65 для sRGB. В этом случае T1_ и T2_ должны быть масштабированы согласно формуле. (15): Если в смартфоне не используется датчик цвета, который может напрямую оценивать WP освещенности сцены с точки зрения координат цветности (x, y), AW рассчитывается камерой в терминах исходных значений R (AW), G (AW) и B (AW), поэтому AW не может быть выражено с использованием цветового пространства CIE XYZ до интерполяции.Однако соответствующий CCT (AW) требует знания координат цветности (x, y), что означает преобразование в CIE XYZ посредством матричного преобразования T_, которое само зависит от неизвестного CCT (AW). Эта проблема может быть решена с помощью самосогласованной итерационной процедуры. 32 1. Сделайте предположение для координат цветности AW, (x (AW), y (AW)). Например, могут использоваться координаты цветности, соответствующие одному из характеризующих осветительных приборов. 2. Найдите значение CCT CCT (AW), которое соответствует координатам цветности (x (AW), y (AW)). Широко используемый подход заключается в преобразовании (x (AW), y (AW)) в соответствующие координаты цветности (u (AW), v (AW)) на диаграмме цветности UCS 1960 года, 23 , 24 где изотермы нормальны к планковскому локусу. Это позволяет определять CCT (AW) с использованием метода Робертсона. 42 В качестве альтернативы могут быть реализованы приблизительные формулы 43 — 45 или более поздние алгоритмы 46 . 3. Выполните интерполяцию так, чтобы 4. Используйте T_ для преобразования AW из необработанного пространства камеры в цветовое пространство CIE XYZ: 5. Повторяйте процедуру, начиная с шага 2, пока (x (AW), y (AW)), CCT (AW) и T_ все не сойдутся к стабильному решению. После того, как интерполяция была выполнена, T_ наследует нормализацию уравнения. (34). Однако теперь AW можно выразить с использованием цветового пространства CIE XYZ, поэтому T_ можно перенормировать, чтобы удовлетворить уравнению. (31). Если в смартфоне используется датчик цвета, который может напрямую оценивать WP освещенности сцены с точки зрения координат цветности (x, y), то требуются только шаги 2 и 3, указанные выше. Рассмотрим снова сбалансированное по белому преобразование из необработанного пространства камеры в цветовое пространство RGB, относящееся к выходу. В случае sRGB преобразование определяется формулой. (29): 1. Матрица D_ — это диагональная матрица WB, содержащая необработанные множители каналов, подходящие для AW: 2. Матрица R_ — это матрица вращения цвета, оптимизированная для освещения сцены. После выполнения цветовой демозаики R_ применяется для преобразования непосредственно из необработанного пространства камеры в линейную форму выбранного цветового пространства, относящегося к выходу. По сравнению с уравнениями. (29) и (37), R_ алгебраически определяется как Объединение уравнений. (39) и (42) показывают, что общий WB достигается, поскольку необработанный вектор пикселей, соответствующий AW, отображается на опорный белый цвет упомянутого на выходе цветового пространства: Как и характеристическая матрица T_, матрица поворота цвета R_ в принципе должна быть оптимизирована для освещения сцены. Вместо того, чтобы использовать подход, основанный на интерполяции, переформулировка в форме уравнения. (37) позволяет традиционным производителям камер принять альтернативный и простой в вычислительном отношении подход, который может быть напрямую реализован на архитектуре с фиксированной точкой. Хотя уравнение.(37) кажется простой переформулировкой уравнения. (29), он имеет несколько преимуществ, которые возникают из-за извлечения необработанных множителей каналов, содержащихся в матрице D_ ББ. Как показано на фиг. 8, изменение элементов матрицы поворота цвета относительно CCT очень мало. Как видно из сравнения фиг. 5 и 8. Изменение элементов матрицы матрицы вращения R_ raw-to-sRGB, используемой камерой Olympus E-M1, в зависимости от CCT. Следовательно, достаточно определить небольшой набор из n предварительно установленных матриц поворота цветов, которые покрывают диапазон WP или CCT, причем каждая матрица оптимизирована для конкретной предварительно установленной WP или CCT: Следует отметить, что необработанное пространство камеры правильно представляет сцену (хотя и с помощью нестандартной цветовой модели) и что множители необработанного канала, содержащиеся в D_, не применяются для «исправления» чего-либо, касающегося представления истинного белого цвета сцены с помощью необработанное пространство камеры, как это часто предполагается.Множители применяются для хроматической адаптации AW к эталонному белому в необработанном пространстве камеры как часть общей CAT, необходимой для достижения WB, путем имитации механизма хроматической адаптации HVS. Как показано на рис.4, эталонный белый цвет необработанного пространства камеры обычно является пурпурным цветом при использовании колориметрии CIE, но он служит полезным промежуточным этапом в требуемом преобразовании цвета, поскольку он облегчает извлечение компонента масштабирования канала, который можно отделить от матричной операции.К другим преимуществам переформулировки можно отнести следующее. • Множители сырых каналов, содержащиеся в D_, могут быть применены к необработанным каналам до выполнения цветной мозаики. В результате получается демозаика лучшего качества. 21 • Метод может быть эффективно реализован на архитектуре с фиксированной точкой. 47 • При желании, часть масштабирования необработанного канала может быть выполнена в аналоговой области с использованием аналогового усиления.Это полезно для качества изображения, если аналого-цифровой преобразователь (АЦП) не имеет достаточно высокой битовой глубины. Обратите внимание, что этот тип аналогового усиления будет влиять на коэффициенты преобразования единицы, относящиеся к входу и выходу gi, определенные формулой. (80) в Приложении. • Необработанные множители каналов, содержащиеся в D_, которые появляются в уравнении. (37) хранятся в метаданных проприетарных необработанных файлов и применяются внутренним механизмом обработки изображений JPEG камеры. Поскольку множители необработанных каналов не влияют на необработанные данные, они могут использоваться внешним программным обеспечением для преобразования необработанных данных, предоставляемым производителем камеры, и могут быть легко настроены пользователем. • Предварительные настройки освещения сцены, которые включают в себя цветовой оттенок, могут быть напрямую реализованы путем сохранения соответствующих предварительно установленных матриц поворота цветов и множителей необработанных каналов, как показано в разд. 5.2. Хотя цветовые матрицы, используемые производителями камер, как правило, неизвестны, некоторые производители, такие как Sony и Olympus, действительно раскрывают информацию о матрицах вращения цвета, используемых их камерами, которую можно извлечь из необработанных метаданных. . В таблице 1 перечислены данные, показанные на рис. 8, для предварительно установленных матриц поворота цвета, используемых цифровой камерой Olympus E-M1, а также диапазоны CCT освещения сцены, в которых применяется каждая матрица. На рисунке 9 показано, как множители необработанных каналов для одной и той же камеры меняются в зависимости от CCT. Данные были извлечены из необработанных метаданных с помощью бесплатного приложения ExifTool. 48 Стратегию преобразования цвета камеры можно резюмировать следующим образом. 1.Камера определяет оценку WP освещения сцены (AW), используя алгоритм автоматического баланса белого, выбранную предустановку освещения сцены или настраиваемую CCT, предоставленную пользователем. AW используется для расчета соответствующих множителей необработанных каналов по формуле. (38) так, чтобы диагональная матрица WB D_ могла быть применена к необработанным каналам. В частности, D_ служит для адаптации AW к эталонному белому в необработанном пространстве камеры. 2. После выполнения цветовой демозаики камера выбирает предварительно заданную матрицу поворота цвета R_i, оптимизированную для освещения с помощью CCT, которая обеспечивает наиболее близкое соответствие CCT, связанной с AW, или наиболее близкую предустановку освещения сцены. 3. Камера применяет R_i для преобразования в цветовое пространство с привязкой к выходу, выбранное пользователем в камере, например sRGB. В частности, эталонный белый цвет необработанного пространства камеры отображается на эталонный белый цвет выбранного цветового пространства, ориентированного на вывод, которым является D65 в случае sRGB. Камера Olympus E-M1 также включает несколько предустановок освещения сцены. Матрицы поворота цвета и соответствующие множители необработанных каналов для этих предустановок сцены перечислены в таблице 2.Обратите внимание, что для заданного CCT предварительно заданные матрицы и множители сцены не обязательно совпадают с теми, которые перечислены в таблице 1. Это связано с тем, что визуализации предварительно заданных сцен включают цветовой оттенок вдали от планковского локуса, поэтому координаты цветности не обязательно являются такие же, как перечисленные в таблице 1 для данной CCT. По той же причине обратите внимание, что предустановки сюжетных режимов «хорошая погода», «подводный» и «вспышка» фактически используют одну и ту же матрицу поворота цвета, но используют очень разные множители необработанных каналов. Матрицы поворота цвета Raw-to-sRGB, соответствующие диапазонам настраиваемых CCT в камере для камеры Olympus E-M1 с объективом 12-100 / 4 и прошивкой v4.1. В среднем столбце перечислены матрицы, извлеченные из необработанных метаданных, которые представляют собой 8-битные числа с фиксированной запятой. При делении на 256 в правом столбце отображаются одни и те же матрицы с четырьмя десятичными знаками, так что сумма каждой строки равна единице, а не 256. Множители необработанных каналов, используемые камерой Olympus E-M1, как функция CCT. Камера использует одинаковые множители для обоих зеленых каналов. Матрицы поворота цвета Raw-to-sRGB и соответствующие множители необработанных каналов, соответствующие режимам сцены в камере для камеры Olympus E-M1 с объективом 12-100 / 4 и v4.1 прошивка. Все значения представляют собой 8-битные числа с фиксированной запятой, которые можно разделить на 256. Поскольку предустановки режима сцены включают цветовой оттенок вдали от планковского локуса, множители и матрицы не обязательно имеют те же значения, что и пользовательские предустановки CCT с тот же CCT, указанный в таблице 1. Для любой данной модели камеры все предустановленные матрицы поворота цвета зависят от таких факторов, как цветовое пространство на выходе, выбранное пользователя в настройках камеры (например, sRGB или Adobe ® RGB), модели объектива, используемой для съемки фотографии, и версии прошивки.Из-за различий в калибровке датчиков между разными примерами одной и той же модели камеры также может быть зависимость от отдельной камеры, используемой для съемки. Например, на рис. 10 (a) показана фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. Как и на рис. 6 (a), оттенок зеленого цвета возникает из-за того, что значения RGB необработанного пространства камеры интерпретируются как значения RGB в цветовом пространстве sRGB для целей отображения без применения какой-либо матрицы цветовых характеристик для преобразования цветов.На рисунке 10 (b) показана та же фотография после применения диагональной матрицы баланса белого D_ для хроматической адаптации AW к исходному белому пространству камеры. Множители необработанных каналов удаляют зеленый оттенок, но фотография остается в необработанном пространстве камеры. Примечательно, что цвета кажутся реалистичными, хотя и ненасыщенными. Чтобы проиллюстрировать, что эталонный белый цвет необработанного пространства камеры на самом деле является пурпурным цветом при использовании колориметрии CIE, рис.10 (c) преобразует (b) в цветовое пространство sRGB без какой-либо дальнейшей хроматической адаптации, применяя обычную матрицу характеристик T_, за которой следует M_sRGB. −1.Напротив, рис. 10 (d) был получен путем применения соответствующих умножителей необработанных каналов, за которыми следовала матрица поворота цвета sRGB R_ вместо T_ и M_sRGB-1. Матрица поворота цвета включает в себя CAT, который адаптирует эталонный белый цвет необработанного пространства камеры к эталонному белому цветовому пространству sRGB D65. В этом конкретном случае D_ = D_D65, поэтому матрица поворота цвета R_, определенная формулой. (40) становится (а) Фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. (b) После применения соответствующих коэффициентов необработанных каналов. Они удаляют зеленый оттенок, но фотография остается в необработанном пространстве камеры. (c) После применения соответствующих умножителей необработанных каналов и преобразования в sRGB без какой-либо дальнейшей хроматической адаптации.Белое пятно показывает истинный цвет эталонного белого цвета в исходном пространстве камеры. (d) После применения соответствующих умножителей необработанных каналов и матрицы поворота цветов sRGB R_. Широко используемый преобразователь RAW с открытым исходным кодом DCRaw (произносится как «dee-see-raw»), написанный Д. Коффином, может обрабатывать большое количество форматов файлов RAW изображений. Он особенно полезен для научного анализа, поскольку он может декодировать необработанные файлы без демозаики, он может применять линейные кривые тона и может напрямую выводить в необработанное пространство камеры и цветовое пространство CIE XYZ.Некоторые соответствующие команды перечислены в таблице 3. Однако DCRaw по умолчанию выводит непосредственно в цветовое пространство sRGB с WP подсветкой D65, используя вариант традиционной стратегии цифровой камеры, описанной в предыдущем разделе. 28 Напомним, что матрица вращения цвета, оптимизированная для использования с освещением сцены, определяется формулой. (40): Выбор соответствующих команд DCraw, доступных в версии 9.28. Обратите внимание, что параметры цветового пространства вывода RGB используют матрицы поворота цветов и поэтому должны использоваться только с правильными множителями сырых каналов из-за встроенного CAT. Хотя матрица преобразования цвета T_D65 оптимизирована для освещения сцены D65, Применение матрицы поворота цвета R_D65 для преобразования из необработанного пространства камеры в sRGB действительно для любого CCT освещения сцены, поскольку матрицы поворота цвета изменяются очень медленно в зависимости от CCT, как видно из рис.8. Однако R_D65 является оптимальным выбором для освещения сцены D65, поэтому недостатком этого упрощенного подхода является то, что общее преобразование цвета теряет некоторую точность, когда освещение сцены значительно отличается от D65. DCRaw использует матрицы поворота цвета, полученные с помощью уравнения. (48), поэтому для данной модели камеры требуется матрица характеристик T_D65. Для этой цели DCRaw использует матрицы Adobe «ColorMatrix2» из конвертера Adobe ® DNG. 32 Из-за требований к логике восстановления, матрицы Adobe отображаются в противоположном направлении по сравнению с обычными матрицами характеризации, определенными в разд. 2.4, и, следовательно, Как показано в таблице 3, DCRaw включает множество команд, которые полезны для научных исследований.Однако важно отметить, что параметры цветового пространства вывода RGB используют матрицы поворота цвета, а не конкатенацию необработанных матриц с CIE XYZ и CIE XYZ с матрицами RGB. Поскольку матрицы поворота цвета включают встроенный CAT, эти параметры позволят достичь ожидаемого результата только в сочетании с правильными множителями необработанных каналов. Например, установка множителя каждого необработанного канала на единицу не предотвратит выполнение некоторой частичной хроматической адаптации, если выбран выход sRGB, поскольку матрица вращения цвета DCRaw включает в себя матрицу D_D65-1, которая является типом CAT_RW → D65. Надежным способом использования DCRaw для научных исследований является команда «dcraw -v -D -4 -T filename», которая обеспечивает линейный 16-битный вывод TIFF в необработанном цветовом пространстве без балансировки белого, демозаики или преобразования цвета. . Последующая обработка может быть выполнена после импорта файла TIFF в MATLAB ® с использованием обычной команды «imread». Ссылка 49 предоставляет учебное пособие по обработке. Цветные диаграммы фотографий в данной статье были получены с использованием этой методики. Например, после импорта файла в MATLAB с помощью приведенных выше команд видимое выходное изображение в цветовом пространстве sRGB без какой-либо балансировки белого может быть получено путем применения соответствующей характеристической матрицы T_ после цветовой демозаики с последующим прямым применением стандартная матрица CIE XYZ в sRGB, M_sRGB − 1. Adobe ® DNG — это формат файлов с открытым исходным кодом, разработанный Adobe. 32 , 50 Бесплатная программа DNG Converter может использоваться для преобразования любого необработанного файла в формат DNG. Хотя преобразователь DNG не нацелен на создание видимого выходного изображения, он выполняет преобразование цвета из необработанного пространства камеры в пространство соединения профиля (PCS) на основе цветового пространства CIE XYZ с освещением D50 WP. 40 (Это не фактический эталонный белый цвет CIE XYZ, который является источником света CIE E.) Следовательно, модель обработки цвета, используемая конвертером DNG, должна обеспечивать соответствующие матрицы характеристик вместе со стратегией для достижения правильного баланса белого по отношению к Шт.При обработке файлов DNG необработанные преобразователи могут напрямую отображать из PCS в любое выбранное цветовое пространство, указанное на выходе, и связанный с ним эталонный белый цвет. Спецификация DNG предоставляет две разные модели обработки цвета, называемые здесь методом 1 и методом 2. Метод 1 использует ту же стратегию, что и смартфоны и коммерческие преобразователи необработанных данных, с той разницей, что данные остаются в PCS. Метод 2, использующий умножители необработанных каналов, использует ту же стратегию, что и традиционные цифровые камеры.Однако множители применяются вместе с так называемой прямой матрицей вместо матрицы вращения, поскольку отображение выполняется на PCS, а не на цветовое пространство RGB, относящееся к выходу. Преобразование из необработанного пространства камеры в PCS определяется следующим образом: Аналогично проблеме, описанной в гл. 4 для смартфонов, реализация уравнения. (60) усложняется тем, что C_ следует оптимизировать для сцены AW. Оптимизированная матрица C_ определяется путем интерполяции между двумя цветными матрицами, обозначенными ColorMatrix1 и ColorMatrix2, где ColorMatrix1 должен быть получен из характеристики, выполненной с использованием источника света с низким CCT, такого как источник света CIE A, и ColorMatrix2 должен быть получен из характеристики, выполненной с использованием высокого разрешения. Источник света CCT, такой как осветительный прибор CIE D65. 32 Оптимизированная матрица C_ вычисляется путем интерполяции между ColorMatrix1 и ColorMatrix2 на основе оценки CCT освещения сцены, обозначенной CCT (AW), вместе с CCT, связанных с каждым из двух характеризующих источников света, обозначенных CCT1 и CCT2, соответственно. , с CCT1 Вспомните из разд. 2.5, что характеристические матрицы обычно нормализованы так, что характеризующий источник света WP в цветовом пространстве CIE XYZ просто насыщает необработанные данные в необработанном пространстве камеры и что зеленый необработанный канал обычно насыщается первым.Однако в данном контексте матрицы Adobe ColorMatrix1 и ColorMatrix2 требуют общей нормализации, которая удобна для выполнения интерполяции. Аналогично разд. 4.1 AW неизвестен в терминах цветового пространства CIE XYZ до интерполяции. Вместо этого ColorMatrix1 и ColorMatrix2 по умолчанию нормализованы, так что WP PCS просто насыщает необработанные данные: Интерполированный C_ изначально наследует эту нормализацию.Однако после определения C_ значения CIE XYZ для AW будут известны. Следовательно, исходный код Adobe DNG SDK позже повторно нормализует Eq. (60), так что AW в необработанном пространстве камеры отображается на WP PCS, когда необработанные данные просто насыщаются: Алгоритм интерполяции метода 1 такой же, как описанный в разд. 4.1, за исключением того, что ColorMatrix1, ColorMatrix2 и C_ заменяют T1_, T2_ и T_ соответственно. Кроме того, спецификация Adobe DNG требует, чтобы метод интерполяции был линейной интерполяцией на основе обратной CCT. 32 Опять же, сама интерполяция усложняется тем фактом, что AW обычно рассчитывается камерой в терминах необработанных значений R (AW), G (AW) и B (AW), но соответствующие CCT ( AW) требует знания координат цветности (x, y).Это означает преобразование в CIE XYZ через матричное преобразование C_, которое само зависит от неизвестного CCT (AW), которое может быть решено с помощью процедуры самосогласованного итерационного анализа. 1. Сделайте предположение для координат цветности AW, (x (AW), y (AW)). Например, могут использоваться координаты цветности, соответствующие одному из характеризующих осветительных приборов. 2. Найдите значение CCT CCT (AW), которое соответствует координатам цветности (x (AW), y (AW)), используя один из методов, перечисленных в шаге 2 разд.4.1. 3. Выполните линейную интерполяцию: 4. Используйте C_ для преобразования AW из необработанного пространства камеры в CIE XYZ: 5. Повторяйте процедуру, начиная с шага 2, пока (x (AW), y (AW)), CCT (AW) и C_ все не сойдутся к стабильному решению. 6. Нормализуйте преобразование цвета в соответствии с формулой. (65). На рисунке 12 показаны результаты линейной интерполяции на основе обратной CCT с использованием цветовых матриц Adobe, определенных уравнением.(64) для камеры Olympus E-M1. Обратите внимание, что ColorMatrix2 такая же, как определенная формулой. (53), который был извлечен из исходного кода DCRaw. Весовые коэффициенты линейной интерполяции α и 1 − α на основе обратной CCT с CCT1 = 2855 K и CCT2 = 6504 K. Оптимизированная цветовая матрица C_, построенная как функция CCT и полученные с помощью линейной интерполяции на основе обратной CCT матриц преобразования цвета Adobe ColorMatrix1 (источник света A, CCT2 = 2855 K) и ColorMatrix2 (источник света D65, CCT2 = 6504 K) для камеры Olympus E-M1. Поскольку C_ отображается в направлении от цветового пространства CIE XYZ к необработанному пространству камеры, инверсию интерполированного C_ можно сравнить с традиционной характеристической матрицей T_ при заданном CCT источника света. На рисунке 13 показан график, обратный интерполированному C_ как функция CCT, и этот рисунок можно сравнить с рисунком 5, на котором показаны стандартные матрицы характеристик для той же камеры, оптимизированные для выбора CCT. Хотя на этих двух графиках используются разные нормализации, поскольку характеристические матрицы нормализованы в соответствии с их характеристическим источником света WP, а не WP PCS, вариации относительно CCT аналогичны.Однако очевидно, что интерполированный C_ теряет точность для CCT ниже CCT1. Инверсия интерполированной цветовой матрицы C_, представленной на рис. 12. Рассмотрим преобразование из необработанного пространства камеры в PCS, определенное уравнением. (60): 1. Аналогично стратегии преобразования цвета традиционных цифровых фотоаппаратов, описанной в разд. 5 диагональная матрица D_, определенная формулой. (38) содержит множители необработанных каналов, подходящие для AW, т. Е. Оценочную оценку WP освещения сцены: 2. Передняя матрица F_ — это тип характеристической матрицы, которая отображает необработанное пространство камеры в PCS и оптимизирована для освещения сцены.Поскольку PCS основана на цветовом пространстве CIE XYZ с WP освещенности D50, передняя матрица F_ включает в себя встроенный CAT, поскольку она также должна адаптировать эталонный белый необработанного пространства камеры к WP освещения D50: Поскольку прямая матрица F_ должна быть оптимизирована для сцены AW, на практике она определяется интерполяцией между двумя прямыми матрицами аналогично подходу интерполяции, используемому в методе 1.Спецификация Adobe DNG предоставляет теги для двух прямых матриц, обозначенных ForwardMatrix1 и ForwardMatrix2, которые должны снова быть получены из характеристик, выполненных с использованием источника света с низким CCT и источника света с высоким CCT, соответственно. Следует использовать тот же метод интерполяции, который описан в предыдущем разделе, с ForwardMatrix1, ForwardMatrix2 и F_ вместо ColorMatrix1, ColorMatrix2 и C_, соответственно, Оптимизированная прямая матрица F_, построенная как функция CCT и полученная с помощью линейной интерполяции на основе обратной CCT матрицы Adobe ForwardMatrix1 (источник света A, CCT2 = 2855 K) и прямой матрицы 2 (источник света D65, CCT2 = 6504 K ) матрицы для фотоаппарата Olympus E-M1. Очевидно, элементы оптимизированной прямой матрицы F_ изменяются очень медленно и стабильно как функция CCT, аналогично элементам матрицы поворота цвета, показанным на рис. 8. Путем сравнения формул.(60) и (70), F_ алгебраически связана с цветовой матрицей C_ следующим образом: В первом разделе этой статьи показано, как конвертер RAW с открытым исходным кодом DCRaw можно использовать для непосредственного определения характеристик камеры без необходимости определять и инвертировать OECF, а также показано, как матрицы характеристик нормализуются на практике. Как следствие метамерной ошибки камеры, необработанное пространство камеры для типичной камеры оказалось деформированным от треугольной формы, доступной для аддитивных линейных комбинаций трех фиксированных основных цветов на диаграмме цветности xy, а доступная гамма оказалась зависимой. по характеристике осветительного прибора.Также было показано, что эталонный белый цвет типичного необработанного пространства камеры имеет сильный пурпурный оттенок. Впоследствии в этой статье были исследованы и сопоставлены типы стратегий преобразования цвета, используемые камерами смартфонов и коммерческими преобразователями RAW, механизмами обработки изображений традиционных цифровых камер, DCRaw и преобразователем Adobe DNG. Смартфоны и программные приложения для преобразования необработанных данных обычно используют стратегию преобразования цвета, известную в науке о цвете.Это включает в себя применение матрицы характеристик T_ для преобразования из необработанного пространства камеры в цветовое пространство CIE XYZ, CAT для хроматической адаптации оцененного WP освещения сцены к эталонному белому цветового пространства, упомянутого на выходе (например, D65 для sRGB), и, наконец, преобразование из CIE XYZ в линейную форму выбранного цветового пространства, ориентированного на вывод. Поскольку оптимизированная матрица характеристик зависит от CCT, если не выполняется условие Лютера-Айвза, оптимизированная матрица может быть определена путем интерполяции между двумя предварительно установленными характеристическими матрицами, одна оптимизирована для источника света с низкой CCT, а другая оптимизирована для источника света с высокой CCT. .Более простые решения включают использование фиксированной матрицы характеристик, оптимизированной для репрезентативного освещения сцены. Для традиционных цифровых камер в этом документе показано, как общее преобразование цвета обычно переформулируется в терминах множителей необработанных каналов D_ вместе с набором матриц поворота цветов R_. Множители необработанных каналов действуют как тип CAT, хроматически адаптируя оценку WP освещения сцены к эталонному белому необработанного пространства камеры. Поскольку каждая строка матрицы поворота цвета равна единице, матрица поворота впоследствии преобразуется из необработанного пространства камеры непосредственно в выбранное цветовое пространство RGB, относящееся к выходу, и в то же время хроматически адаптирует исходный белый цвет исходного пространства камеры к эталонному белому пространству камеры. цветовое пространство, указанное на выходе.Было показано, что вариация элементов матрицы поворота цвета относительно CCT очень мала, поэтому требуется лишь небольшой выбор предварительно заданных матриц поворота, каждая из которых оптимизирована для заданного предварительно заданного источника света. Это позволяет применять необработанные множители каналов, подходящие для оценки WP освещения сцены, в сочетании с предварительно установленной матрицей поворота, связанной с наиболее подходящим WP. Основные преимущества переформулировки заключаются в том, что интерполяция не требуется, и метод может быть эффективно реализован на архитектуре с фиксированной точкой.Кроме того, качество изображения может быть улучшено путем применения умножителей необработанных каналов до цветовой демозаики. Было показано, что DCRaw использует модель, аналогичную традиционным цифровым камерам, за исключением того, что для каждой камеры используется только одна матрица вращения цвета, в частности матрица R_D65, оптимизированная для освещения D65. Хотя общее преобразование цвета теряет некоторую точность, когда освещение сцены значительно отличается от D65, преимущество разделения множителей необработанного канала от характеристической информации, представленной матрицей поворота цвета, заключается в том, что WB может быть правильно достигнут для любого типа освещения сцены при условии необработанного применяются канальные множители, подходящие для освещения сцены.Было показано, что матрицы вращения, используемые DCRaw, могут быть получены из инверсий матриц цветовых характеристик ColorMatrix2, используемых конвертером Adobe DNG. Преобразователь Adobe DNG отображает необработанное пространство камеры и оценку WP освещения сцены на промежуточный этап в общем преобразовании цвета, а именно на PCS на основе цветового пространства CIE XYZ с WP D50. Метод 1 определяет подход, который также используется в коммерческих конвертерах необработанных данных и современных смартфонах. Цветовая матрица C_, оптимизированная для освещения сцены, получается посредством интерполяции между предварительно заданными матрицами «ColorMatrix1» с низким CCT и «ColorMatrix2» с высоким CCT.Из-за требований логики восстановления выделения эти цветовые матрицы отображаются в противоположном направлении по сравнению с обычными характеристическими матрицами. Кроме того, матрицы ColorMatrix1 и ColorMatrix2 изначально нормализованы в соответствии с WP PCS, а не их соответствующими характеристическими осветительными приборами. Поскольку цветовые матрицы Adobe находятся в свободном доступе, их соответствующим образом нормализованные инверсии могут служить полезными высококачественными характеристическими матрицами, когда оборудование для определения характеристик камеры недоступно. Метод 2, предлагаемый конвертером Adobe DNG, использует множители необработанных каналов аналогично традиционным цифровым камерам. Однако они применяются в сочетании с так называемой прямой матрицей, а не с матрицей вращения, поскольку преобразователь Adobe DNG напрямую не сопоставляется с цветовым пространством RGB, указанным на выходе, поэтому каждая строка прямой матрицы не суммируется до единицы. Хотя оптимизированная прямая матрица определяется путем интерполяции предварительно заданных матриц «ForwardMatrix1» и «ForwardMatrix2», вариация оптимизированной прямой матрицы по отношению к CCT очень мала, аналогично матрице вращения. Рассмотрим необработанные значения, выраженные как интегрирование по спектральной полосе пропускания камеры в соответствии с формулой. (5): Константа k, которая появляется в уравнении. (5) устанавливает верхнюю границу величины необработанных значений. Можно показать 28 , что k задается как Наименьшее аналоговое усиление определяется GISO = 1, что соответствует базовому усилению ISO. 28 , 51 Числовые значения соответствующих настроек ISO камеры S определяются с использованием выходных данных JPEG, а не необработанных данных. 55 , 56 Эти пользовательские значения также учитывают цифровое усиление, применяемое через градационную кривую JPEG. При сравнении необработанного вывода с камер, основанных на различных форматах датчиков, по возможности следует использовать эквивалентные, а не одинаковые настройки экспозиции. 57 Как указано в п. 2.2, фактические необработанные значения, полученные на практике, представляют собой квантованные значения, смоделированные путем взятия целой части уравнения. (5), и полезно впоследствии нормализовать их до диапазона [0,1], разделив уравнение. (5) по необработанной точке отсечения. Матричный измеритель Nikon Далее
Стр. >> идти
сразу к пояснительной коммерческой литературе >> подробнее
информация о ночной фотосъемке >> идти
прямо к наконечникам дозатора внизу страницы >> См. Также Экспозиция и цифровая экспозиция Осторожно :
Если вы снимаете на пленку для печати, на снимках вы увидите ничего сделать с экспозицией, которую вы сделали в камере.Воздействие — это проблема
ваша часовая лаборатория младший. техник средней школы, а не ваша техника или
ваш отрицательный. Игнорировать этот раздел полностью или снимать диапозитивы
вместо. Только снимая на прозрачные пленки или выполняя свою собственную лабораторную работу, вы сможете
вы сможете контролировать свои конечные результаты. Если вы
у вас проблемы с экспонированием ваших отпечатков, скорее всего, из-за того, что
они были напечатаны, а НЕ как они были разоблачены. Если вы
видеть мутные, тусклые, зернистые или светлые тени без деталей на ваших отпечатках
значит, у вас недоэкспонированный негатив; в противном случае единственная причина печати
будет слишком темным, если он был напечатан неправильно. ВВЕДЕНИЕ Превосходный матричный измеритель — основная причина, по которой стоит выбрать Nikon перед другими брендами. Nikon’s
Матричный замер, представленный как «Автоматический мульти-шаблон» (AMP)
измерения в камере FA в 1983 году, был первым в мире измерителем, который на самом деле
измеренная экспозиция, а не просто свет.Это один из самых важных
достижения в фотографической технологии. Этот счетчик умеет делать белыми
снег или песок выглядят белыми, в отличие от обычного экспонометра.
все выглядит средним 18% серым. Применяет систему зон автоматически
попытаться получить правильную экспозицию в сложных и контрастных
ситуации. При съемке в спешке в быстро меняющихся условиях
в этом весь смысл использования камеры небольшого формата, такой как Nikon,
Нет лучшего способа измерить экспозицию. An
пример слишком большого контраста сцены в полдень. Нет счетчика
может исправить плохое освещение или слишком высокий коэффициент освещения. Это смущает
многие думают, что их счетчики неисправны, хотя счетчик
идеально. Если у вас есть проблемы с размытием бликов, даже если
ваш объект хорошо экспонирован или тени слишком темные, даже если
основной предмет в порядке, ваша проблема в слишком большом контрасте в вашем
освещение, а не ваше воздействие.Для фотографий с людьми используйте свой Nikon
мигают при любых условиях, и вы, вероятно, улучшите большинство из них
проблемы. Освещение
является важнейшим техническим и художественным аспектом живописи, искусства и
фотография. Другие уже много писали об освещении, поэтому я не буду
попробуйте продублировать это здесь. Мне нравится писать о вещах, которые ты не можешь найти
в любом другом месте. Крайне важно, чтобы вы научились быть чуткими к
качество света, и научитесь терпеливо ждать его.Это очень,
очень важно! Все
другие крупные производители SLR примерно с 1990 года подражали этому измерителю.
под разными именами. Canon называет это «оценочным» и
большинство производителей фотоаппаратов хвастаются этим, указывая, сколько датчиков они
использовать. Даже Leica пытается скопировать это. Сегодняшняя Leica R8 имеет примерно
такое же техническое совершенство, как у Nikon FA 1983 года. количество датчиков неважно. Мудрость, которая заложена в прошивку
который интерпретирует данные с датчиков, это то, что важно. оригинальный Nikon FA имел всего 5 датчиков замера. Сегодня даже матрица F100
метр работает с теми же 5 основными датчиками и добавляет только 5 точечных датчиков
в микс для точной настройки. Превосходный Canon Rebel 2000 утверждает, что 35 датчиков;
Я по-прежнему предпочитаю программирование измерителя Nikon. У Nikon N90 был целый
куча сенсоров прямо в самом центре изображения, что позволяет
впечатляющее количество датчиков, но не имеет ничего общего с измерителем
способность.Со счетчиком N90 все в порядке; просто N90
звучит как игрушка, когда бежит. Цветной матричный измеритель F5 должен быть необычным. Вот почему Canon
фотограф по контракту Артур Моррис сказал, что лучшая камера в мире
это Nikon F5. Я не пробовал, потому что если бы и пробовал, то уверен, что заведу
до необходимости таскать F5 повсюду. Я упрямый не
пробуя F5, вам не обязательно. Точность измерителя — самое главное
аспект качества изображения, обеспечиваемый камерой, и почему я снимаю с
Nikon. Это
статья относится к обычному матричному измерителю, введенному в FA в
1983 и продолжается по сей день во всех зеркальных фотокамерах Nikon AF. БАЗОВЫЙ
ПОЯСНЕНИЕ см.
полная оригинальная документация здесь >> Угадай
тип вашего объекта Матричный измеритель сначала пытается угадать, что вы фотографируете (сложная
часть), а затем выполняет соответствующий расчет экспозиции (простая часть.) Вы
возможно, читал, что матричный измеритель сравнивает показания освещенности с «более
30 миллионов миллиардов миллиардов хранящихся на борту изображений »или другие
ерунда. Этих изображений нет в камере. Что делает камера, так это
использовать опыт профессиональных фотографов и анализировать
много-много фотографий (это ваш номер 30 000), чтобы помочь программе
прошивка камеры, чтобы узнать, какую фотографию вы пытаетесь сделать
сделать.После того, как он классифицировал ваше изображение, он может сделать лучшее
расчеты для вашей экспозиции. камера классифицирует изображения, как показано на странице 5
документации. Солнечный свет
белые значения Эти
метров, все также используют очень важное наблюдение: солнце всегда
примерно так же ярко в ясный день, как и в любой другой ясный день. Если
камера видит что-то выше яркости серой карты при солнечном свете
(LV15), он знает, что что-то видит
светлее серого.Он знает это, потому что достаточно умен, чтобы знать, что
солнце не просто стало вдвое ярче. Когда
видит то, что нужно сделать светлее, сознательно «передерживает»
по сравнению с тупым измерителем, так что легкие предметы выглядят светлыми. Это
простое применение системы зон; если счетчик что-то видит две остановки
выше, где будет серая карта при дневном свете (LV15
+ 2 ступени = LV17) тогда он знает, что нужно «передержать» этот участок
две остановки, чтобы он выглядел не серым, а белым. Если
Матричный измеритель видит действительно яркие сегменты, скажите что-нибудь выше
LV 16-1 / 3, он их просто игнорирует. Он знает, что они представляют собой яркие блики
или прямых солнечных лучей, и не следует использовать их для расчета экспозиции. Это
вместо этого придает больший вес другим сегментам. Абсолютный
уровни освещенности угадать
тип вашего объекта и определите, что на самом деле является белым при солнечном свете Матрица
необходимо знать абсолютный уровень освещенности вне камеры .Помнить
что свет внутри камеры будет отличаться от уровня освещенности
вне камеры в зависимости от светосилы (диафрагма) вашего объектива. Для этого
Матрице необходимо считывать истинное значение диафрагмы объектива. Камера FA считывала
это со специальным новым выступом на задней панели AI и новых линз. Камеры автофокусировки
прочтите это в электронном виде. Другим камерам это не нужно, так как они
не пытался угадать, какой объект вы фотографируете и, следовательно,
были счастливы, только зная, сколько света прошло через ваш объектив на
фильм. Для
Например, Матрица знает, насколько яркий дневной свет, поэтому она знает, видит ли он
что-то достаточно яркое, чтобы быть ярким песком на ярком солнце, оно знает
чтобы добавить экспозицию, чтобы он выглядел светлым, а не просто серым. Если
камера не может определить фактическую максимальную диафрагму объектива, тогда она не может
определяет абсолютные уровни освещенности и не может выполнять матричный замер. Абсолютный
муфта максимальной апертуры Руководство
Объективы AI имеют специальный внутренний механический соединительный выступ на задней панели.
объектива, который сообщает F4 и FA, какова точная максимальная диафрагма,
как f / 4 или f / 2.8. Все объективы AF имеют одинаковые механические выступы для
FA и F4 (спасибо, Nikon), а также электронные контакты для
Камеры автофокуса. Черт,
камера также хочет знать ослабление света объектива, и я думаю
это также закодировано в глубине механического выступа. Камера использует
это, чтобы получить правильные показания для сегментов счетчика по сторонам
изображение. Это полностью отличается от выступа на внешнем отверстии.
кольцо, которое сообщает камере соотношение между диафрагмой, которую вы
установить на объектив и максимальную диафрагму.Я не думаю, что какие-то камеры были
когда-либо предназначенные для механического считывания спада, так же как и линзы AI
иметь механический выступ для привязки фокусного расстояния объективов к камерам
которые никогда не строились. Все
Камеры автофокусировки считывают диафрагменное число через электронные контакты. За исключением F4,
ни у одной камеры с автофокусировкой нет щупа для считывания механического выступа с задней стороны
объективы с ручным управлением, поэтому все камеры с автофокусировкой (кроме F4) будут
вернуться к центрально-взвешенному при установке объектива с ручной фокусировкой или телеконвертера
на них.Это дефект конструкции автофокусных камер, вероятно, спроектированный
чтобы заставить вас покупать новые объективы AF. я верю
что линзы AF также сообщают матрице о спаде освещенности
чтобы можно было точнее измерить углы изображения. Использование
с телеконвертерами Единственный способ получить настоящий матричный замер на камере с автофокусом — это использовать TC-14E
или TC-20E (или новые версии «II»).Они работают только с
экзотические телеобъективы AF-I и AF-S. Есть
нет другого способа получить настоящий матричный замер с другими TC на камерах AF
кроме F4. Получить
Матрица с объективами ручной фокусировки на FA или F4 вам понадобится TC, который
есть еще один датчик, добавленный к нему, чтобы связать абсолютную информацию о диафрагме
механически. У TC-201 есть эта муфта. В TC-200 нет. Руководство
Focus TC не дают ни автофокуса, ни матричного замера при использовании на
Камеры автофокуса. Как ни странно
это означает, что для получения матричного замера с любым объективом, кроме AF-I
или объектив AF-S и телеконвертер, вы должны использовать старый F4 или FA и
TC-201 или TC-301 (или я думаю, TC-14A или B). В противном случае вы не получите Матрицу
с телеконвертером и любой другой автофокусной камерой! Когда
вы не можете установить матрицу на камеру, она по умолчанию будет центровзвешенной, если вы
выбрали Матрицу. Большинство камер с автофокусировкой сообщают вам об этом по шкале замера.
показатель.В FA нет индикатора для метража. От
что я видел, телеконвертеры со скидкой, такие как Kenko PRO, Tamron, Sigma
и Tokina неправильно связывают максимальную диафрагму с камерами автофокусировки
и иногда сбивает Матрицу с толку, особенно при ярком свете. Если
ваш TC позволяет вам достичь отмеченной максимальной диафрагмы на вашей камере AF
у вас неправильная муфта . Камера автофокуса должна показывать только один
или на два стопа меньше максимальной диафрагмы камеры, чем указано на объективе
когда используется TC. Что
о 3D-замере и объективах D? Вы
Можете смело игнорировать это, если покупаете линзы бывшие в употреблении. D линзы
помогите измерителю немного угадать, что вы пытаетесь сфотографировать.
Это имеет очень небольшой эффект. Потому что
впечатлительные люди ошибочно полагают, что линзы D служат прекрасным
Вы можете получить очень хорошие линзы без D по дешевым ценам, которые используются сегодня. В процессе изготовления
преднамеренные испытания линз D и не D с одним и тем же объектом на одном и том же
раз я не увидел отличий. Единственный раз, когда я увидел разницу
делает то, в чем они хороши: делает фото со вспышкой
прямо в зеркало. Единственный производимый сегодня объектив без D AF — это прекрасный 50 мм f / 1,8.
AF. Это выгодная сделка. 3D замер
можно смело игнорировать. Цвет
Матричный замер F5 повышает ставку, добавляя чувствительности к цвету.Это, в отличие от 3D, очень
важный. Это позволяет F5 сделать желтый цвет таким светлым, каким он должен быть,
и красный настолько темный, насколько это должно быть. Цвет,
вместе со всеми сегментами в измерителе F5, также позволяет камере
угадайте, что ваш объект более точно, что, в свою очередь, позволяет камере
чтобы применить к фотографии потенциально более точный алгоритм замера. Это
Эта функция уникальна для F5 среди всех пленочных фотоаппаратов. СОВЕТЫ Когда
использовать Matrix Проще всего доверить во всем счетчик Матрица; Так и будет
быть правым чаще, чем способность большинства людей отвергать общепринятые
метр. Чтобы понять
Как работает матричный замер, требует знания системы зон (см.
книги в справочном разделе), а также электромобиль
и низковольтные системы.Как только вы их поймете, прочтите
документация на счетчики. Сегодня Nikon не разглашает такую широкую огласку,
что прискорбно, потому что без этой информации намного сложнее
чтобы узнать, как и почему счетчик Matrix делает то, что он делает. Для
технически свободно владеющие фотографами, матричный измеритель очень предсказуем.
и при необходимости легко компенсировать, но это намного сложнее, чем
усредняющие метры. Эта сложность — вот что делает измеритель Matrix таким хорошим,
но также и то, что затрудняет обучение и почему некоторые фотографы
до сих пор не верю этому. Когда
и как пользоваться flash Использование
Заполняющая матрица постоянно мигает, если только вы специально не хотите, чтобы
объект выделен или остановлен при слабом освещении. Возможности матрицы Nikon
чтобы сбалансировать вспышку и естественный свет непревзойденно. Используйте синхронизацию SLOW REAR
режим в помещении, чтобы фон выглядел естественно. Использование
настройка матрицы, которая на старых вспышках (SB-22, SB-23) является настройкой по умолчанию
настройки и на новых вспышках (SB-28) отображаются символом TTL и
маленький пятисегментный матричный символ на ЖК-дисплее вспышки. Марка
убедитесь, что у вас достаточно мощности и дальности действия вспышки в очень контрастных местах
(как съемка на солнце), в противном случае выключите вспышку. Вот почему: По контрасту
света Матричный измеритель уменьшает экспозицию окружающего света на
до 2/3 ступени, чтобы очень яркие блики были в пределах
диапазон пленки, ожидая, что вспышка заполнит еще более темный
тени. Обычно это дает отличные результаты, так как обычно у вас достаточно
мощность вспышки, чтобы заполнить тени. Если вы
находятся на улице, а контрастные объекты находятся за пределами диапазона вспышки, включается
ваша вспышка может дать недодержку на 2/3 ступени для всей сцены, поскольку окружающая экспозиция уменьшается, а вспышка
не сможет заполнить тени! Не волнуйтесь, вы увидите недостаточное
индикатор мощности вспышки мигает, если это произойдет. Только не предполагай, что
только заливка будет слишком темной, потому что у вас также может быть рассеянный свет
недоэкспонировано тоже на улице.Я потратил несколько рулонов за один раз, стреляя
в деревья с подсветкой и игнорируя индикатор недостаточной мощности вспышки
(быстро мигающий индикатор готовности) думая, что будет только заливка
немного темнее. Все кадры были слишком темными; Я должен был просто повернуться
выключить вспышку. Вы
можете подтвердить этот эффект, просто направив камеру на очень контрастный
сцена. Включите и выключите вспышку, соблюдая указанную экспозицию.
на метр.Вы увидите уменьшение экспозиции при повороте вспышки.
на очень контрастном свете. Что
об использовании фиксации автоэкспозиции в матрице? Работает
просто хорошо. Я делаю это, хотя и редко. Матричный измеритель работает, предварительно угадывая, что вы фотографируете (сложная
часть), а затем соответствующим образом установите экспозицию (простая часть). Если вы
привязать его к чему-то еще, тогда гораздо менее вероятно, что счетчик может
угадай правильно, каков твой настоящий предмет.Если вы достаточно осмотрительны
чтобы заблокировать экспозицию, лучше делать это с центрально-взвешенным
метр. Первая матричная камера FA не имела кнопки блокировки именно по этой причине. Темы
что может обмануть матрицу Матричный измеритель настраивается более 20 лет. Это о
единственные субъекты, которые обманывают его сегодня: 1.)
Преимущественно светлые объекты без прямого солнечного света. Поскольку эти
недостаточно яркие в абсолютном выражении (LV16
или выше) Матрица не может догадаться, что они должны быть легкими.
Они будут отображаться серыми. Если у вашего объекта есть и темные, и
светлые участки у Матрицы все в порядке. Если все изображение представляет собой белую карточку в
оттенок, то вам все равно придется набрать + компенсация, чтобы
белые карты выглядят белыми. 2.)
Яркое пасмурное небо. Они достаточно темные, что измеритель не может сказать
что вы хотите, чтобы они выглядели почти белыми на вашем изображении, потому что они
ниже LV16. Вам нужно будет набрать + 1
или даже +2 компенсации, если яркое серое небо занимает большую часть вашего изображения,
говорят, фотографируя летающих птиц на фоне ярко-серого неба. 3.)
Глубокие или темные фильтры. Помните, что измеритель должен знать абсолютное
Световая ценность предмета, как объяснено
выше в разделе «Абсолютные уровни освещенности.« Если вы
наденьте на объектив темный фильтр, например поляризатор, тогда вы можете обмануть
матрица, заставляющая думать, что у вас другой предмет, потому что
пропускание фильтра — , а не , переданное в Матрицу
метр. Если вы
наденьте фильтр на линзу, вы только что запутали матричный измеритель. Свет
фильтры, такие как УФ, световой люк или A2 (81A), поглощают только треть стопа
самое большее, поэтому в худшем случае эти фильтры будут вносить ошибку 1/3
прекратите недоэкспонирование на снегу или других очень ярких сценах.Вы можете игнорировать
это, и я. Однако
рассмотрим поляризатор с коэффициентом фильтрации 2 ступени. С поляризатором
ваша камера увидит то, что она считает LV15, глядя на яркий песок
или снег, вместо правильного LV17. Из-за этого счетчик не может
скажите, что на вашем изображении есть яркий, залитый солнцем белый цвет, и вы можете получить
непреднамеренная недодержка. я не
слишком беспокоюсь об этом, но опять же, я не часто использую поляризаторы. Помните
это при очень ярких условиях. Вы
может захотеть выполнить считывание матрицы вручную без фильтра, блокировка автоэкспозиции, которая
чтения, а затем добавьте этот коэффициент фильтра в качестве значения компенсации после
добавление фильтра. На самом деле, если вы собираетесь пойти на такие неприятности
вы также можете просто использовать точечный измеритель Pentax и камеру обзора, но это
действительно иллюстрирует потенциальные проблемы. Это
еще одна причина выбрать поляризаторы марки Nikon: они теряют всего 1-1 / 3
стопов света, а не 2, как у большинства других поляризаторов. 4.)
Предметы средней освещенности на солнце, например, калифорнийская штукатурка. Для того, что вы хотите
визуализируется как зона VI, рендеринг светлого, но не белого цвета, некоторые из самых ранних
Матричные и AMP-индикаторы сделали их немного темнее, ближе к зоне 18%.
V. В этих случаях вам нужно было набрать примерно +2/3 компенсации. Современный
Матричные измерители (F100) кажутся нормальными с этими предметами. Который
с какими объективами камеры дают матричный замер? Все
современные камеры с автофокусировкой, а также большинство старых камер, дают матричный замер с
все объективы AF.Ни один из них, кроме F4, не может делать это с ручной фокусировкой.
линзы. Nikon
умышленно искалечили камеры автофокуса, кроме F4, чтобы они только
выполните центрально-взвешенный замер с объективами с ручной фокусировкой. Никон наверное
сделал это, чтобы побудить вас покупать новые объективы с автофокусом, чтобы
очень важный матричный замер. Камера F4 AF и ручная фокусировка FA
камеры имеют механические кодировщики, позволяющие этим камерам считывать максимальное
абсолютное значение диафрагмы от выступа на объективе.Это необходимо для матрицы
функционировать. Поскольку все другие камеры с автофокусировкой не имеют этих кодировщиков, они не могут
дают матричный замер с ручными объективами. Есть
являются маргинальными фракциями, которые прикрепляют чипы к объективам с ручной фокусировкой, чтобы обмануть автофокусировку.
камеры в матричный замер. Наверное, это сработает. Nikon
добавляет фишки к двум ручным объективам: старому 500mm f / 4 P AI-s и новому
45mm f / 2.8 P, так что эти два объектива однозначно дают матричный замер на
все камеры AF. Получить
для матричного замера с объективами с ручной фокусировкой используйте камеру F4 AF,
или камера FA с ручной фокусировкой. Все
Объективы AI и AI-s с ручной фокусировкой и AF, AF-I и AF-S обеспечивают матричный замер
на FA и F4. Единственные, которые этого не делают, — это объективы с предварительным искусственным интеллектом, которые были раньше.
1977. до 1977 г.
линзы, преобразованные в AI, не будут давать матричный замер на
F4 или FA, если к задней части объектива не добавляется специальный выступ.Вы можете преобразовать древний объектив AI примерно за 25 долларов, но это то же самое
парень хочет около 200 долларов, чтобы добавить этот специальный наконечник. Забудь об этом. Также
объективы с ручной фокусировкой обеспечивают автоматизацию только с ручным управлением и предпочтительной диафрагмой
в лучшем случае на камерах AF. Никто не получает предпочтительный затвор или программу
режимы с ручными объективами на камерах AF. Камера FA поддерживает все режимы P, S, A и M для работы со всеми объективами.
новее 1977 г.Это потому, что Nikon все еще достаточно хорош, чтобы гарантировать
что все новые объективы AF по-прежнему имеют все механические выступы для соединения
к старым камерам. Фактически, последний объектив AF-S 80-200 f / 2.8 не только
безупречно работает с камерой FA, у нее также есть проушина для установки FA в
скоростной программный режим для телеобъективов. Далее
Страница> Смотреть
здесь для получения дополнительной информации о ночной выдержке См.
заводская матричная документация здесь Назад
к началу страницы Этот эффект потрясающе смотреть! В одном рекламном ролике лошадь останавливается в воздухе, а камера перемещается вокруг нее.В «Матрице» техника используется всего четыре раза, но она настолько поразительна, что оставляет впечатление на весь фильм. В рекламе и в «Затерянном в космосе» используется более простой прием. Вокруг объекта устанавливается набор фотоаппаратов (например, 30). В момент, когда действие должно остановиться, срабатывают сразу все 30 камер. Захваченные ими изображения воспроизводятся одно за другим, чтобы показать вращение. В фильме «Матрица» создатели фильма используют чрезвычайно сложную технику для создания гораздо более сложных эффектов.Мало того, что происходит вращение , но и актер также движется в замедленном движении во время вращения (см. Первую ссылку ниже для трех очень хороших демонстраций полного движения). Для создания окончательного изображения комбинируются по крайней мере пять различных техник спецэффектов: Если вы посмотрите видео по первой ссылке ниже, вы увидите, что изображения, снятые фотоаппаратами, очень грубые.Виден провод, как и все другие камеры в сцене. Техник устраняет все эти недостатки по одному изображению за раз, используя компьютер и оцифрованные версии изображений. Когда неподвижные изображения становятся идеальными, программа морфинга выполняет интерполяцию между ними. Затем в зеленую зону накладываются фоновые изображения. Техник должен построить полную компьютерную модель 3-D сцены, созданной компьютером, а затем задать поворот этой сцены в соответствии с положением камеры в каждом кадре фильма. MATRIX VISION использует файлы cookie для анализа посещаемости сайта и оптимизации его производительности и улучшений. Выберите, какие файлы cookie, помимо технически необходимых, вы хотите принять. Мы обрабатываем данные в целях анализа и маркетинга только с вашего согласия.Вы можете изменить эти настройки в любое время. Для получения дополнительной информации, в том числе об обработке данных сторонними поставщиками, см. Нашу Политику конфиденциальности. Показать детали
Скрыть детали Эти файлы cookie необходимы для работы сайта.Они помогают сделать веб-сайт пригодным для использования и включают функции, связанные с безопасностью. Без этих файлов cookie веб-сайт не может работать должным образом. Эти файлы cookie предоставляют нам информацию о том, какие области нашего веб-сайта используются.Для этого мы собираем статистические данные без персональной ссылки. Они позволяют нам постоянно развиваться, адаптировать содержание к вашим потребностям и использовать сети для целевого продвижения наших продуктов. Подтвердите выбор Матрица — это функция, которая позволяет отправлять или получать видео с любой камеры системы наблюдения на любой монитор (известный как получатель матрицы) в сети.Типичная конфигурация Matrix автоматически представляет живое видео на требуемом Matrix-получателе, когда происходит определенное событие, например, когда обнаружено движение или когда другой пользователь хочет поделиться важным живым видео. Если матрица настроена на сервере системы наблюдения, вы можете включать содержимое матрицы в представления XProtect Smart Client. Когда происходит определенное событие или другой пользователь хочет поделиться с вами видео, видео в реальном времени автоматически появляется в ваших представлениях матрицы. Камера, используемая в настройке, полностью зависит от конфигурации Matrix на сервере системы наблюдения или от того, чем другие пользователи хотят поделиться с вами.Вы не можете контролировать это в XProtect Smart Client. Однако вы можете добавить содержимое Matrix на любое количество позиций в представлении, чтобы вы могли одновременно смотреть видео в реальном времени из нескольких источников, запускаемых Matrix. Положение матрицы отображается значком матрицы на панели инструментов:. Вы можете развернуть матрицу, дважды щелкнув ее. Вид может содержать несколько позиций матрицы. Это позволяет одновременно смотреть видео в реальном времени из нескольких источников, запускаемых Matrix.Если ваше представление содержит несколько позиций матрицы, позиции всегда ранжируются — одна из позиций будет первичной позицией матрицы, другая — вторичной и так далее. Когда получен первый поток видео в реальном времени, инициированный Матрицей, он автоматически отображается в первичной позиции Матрицы. При получении следующего видеопотока, инициированного матрицей, применяется принцип «первым пришел — первым обслужен»: ранее полученный видеопоток передается во вторичную позицию матрицы вашего представления, а самый новый видеопоток представляется в вашей первичной позиции матрицы, и скоро.Рейтинг позиций в матрице применяется автоматически: первая добавленная вами позиция в матрице является первичной позицией в матрице, следующая, которую вы добавляете, — вторичной и т. Д. Вы можете изменить этот рейтинг в режиме настройки. На вкладке «Воспроизведение» в позициях матрицы отображается видео с камер, с которыми позиции матрицы в последний раз использовались на вкладке «Живое». Вы можете воспроизвести это видео, используя функции навигации на вкладке «Воспроизведение». Вы не можете отправлять видео в точку доступа (см. Горячие точки (объяснение)) или карусель (см. Карусели (объяснение)). Джон, это были не те матричные числа для 600D. Марк, откуда взялось число 1.879574? Я вижу 2.12 с сайта dxomark. Спасибо. Хорошее замечание! Я не объяснял этого в исходном посте. Для 600D DXOMark (http: //www.dxomark.c…s#measuretabs-7) дает матрицу для источника света D50 как: 2,12 -1,28 0,16 -0,24 1,63 -0,38 0,04 -0,69 1,65 Между тем для 600D другая матрица (ColorMatrix2) для источника света D65 появляется в цифровом негативном файле Adobe 0.6461 -0,0907 -0,0882 -0,4300 1,2184 0,2378 -0,0819 0,1944 0,5931 DCRaw имеет ту же матрицу Adobe, жестко закодированную в исходном коде (каждое число нужно разделить на 10000): {«Canon EOS 600D», 0, 0x3510, Спецификацию Adobe DNG можно найти здесь: http: //www.adobe.com…pec_1.4.0.0.pdf В спецификации поясняется, что ColorMatrix2 — это матрица, которая переходит от цветового пространства XYZ (погуглите, если вы хотите узнать больше о XYZ) к RGB камере. Существует еще одна стандартная матрица, которая переходит от RGB к XYZ для источника света D65 (см., Например, http: //www.easyrgb.c…ATH&H=02#text2) Эта матрица: 0,4124 0,3576 0,1805 0,2126 0,7152 0,0722 0,0193 0,1192 0,9505 Умножение первой матрицы на вторую (в этом порядке, т.е. первая матрица предварительно умножает вторую) дает матрицу, которая переходит от стандартного RGB к RGB камеры для 600D: 0.245467 0,155663 0,026238 0,086289 0,745977 0,236382 0,01900 0,180445 0,562994 Итак, чтобы перейти от 600D CameraRGB к стандартному RGB, нам нужна инверсия этой матрицы. Это будет применено к нашим данным с балансом белого. Поэтому нам нужно убедиться, что матрица не изменит цвет белого. Это делается путем масштабирования каждой строки указанной выше матрицы, чтобы каждая строка суммировалась до 1,0: 0,574368 0,364237 0,061395 0,080746 0.698056 0,221197 0,024921 0,236668 0,738411 Теперь мы можем инвертировать матрицу и получить: 1.879574 -1.03263 0.153055 -0,21962 1,715146 -0,49553 0,006956 -0,51487 1,507914 Итак, теперь у нас есть две похожие матрицы, которые можно использовать: DXOMark для осветителя D50: 2,12 -1,28 0,16 -0,24 1,63 -0,38 0.04 -0,69 1,65 Матрица Adobe для осветителя D65: 1.879574 -1.03263 0.153055 -0,21962 1,715146 -0,49553 0,006956 -0,51487 1,507914 Отчасти разница заключается в разных источниках света, но я также думаю, что и DXOMark, и Adobe могли создать эти матрицы, используя свои собственные методы тестирования камеры. Если это так, то обе будут немного отличаться от матрицы, которую Canon использует в своей камере, а Canon DPP использует в своем RAW-конвертере. Ур. (34)
[R (WP) G (WP) B (WP)] D65 = T1_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, [R (WP) G (WP) B (WP)] D65 = T2_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где Y (WP) = 1 и max {R (WP) , G (WP), B (WP)} = 1. Eq. (35)
T_ (AW) = f [T1_ (CCT1), T2_ (CCT2)], где f — функция интерполяции. Интерполяция действительна, если CCT (AW) Eq. (36)
[X (AW) Y (AW) Z (AW)] сцена = T_ [R (AW) G (AW) B (AW)] сцена. Это дает новое предположение для (x (AW), y (AW)). 5.
Традиционные цифровые камеры
Eq.(37)
[RLGLBL] D65 = R_D_ [RGB] сцена. Это уравнение можно интерпретировать, разложив преобразование на два этапа. Eq. (38)
D _ = [1R (AW) 0001G (AW) 0001B (AW)] сцена. Они применяются к необработанным каналам перед цветной демозаикой. Как показано формулой. (27), множители необработанного канала, в частности, служат для хроматической адаптации AW к эталонному белому необработанному пространству камеры: Eq.(39)
[R = 1G = 1B = 1] ссылка = сцена D_ [R (AW) G (AW) B (AW)]. Ур. (40)
R_ = M_sRGB − 1 CAT_AW → D65 T_ D_ − 1. Матрицы поворота цвета обладают тем важным свойством, что сумма каждой из их строк равна единице: Eq.(41)
R (1,1) + R (1,2) + R (1,3) = 1, R (2,1) + R (2,2) + R (2,3) = 1, R (3,1) + R (3,2) + R (3,3) = 1. Следовательно, R_ сопоставляет эталонный белый цвет необработанного пространства камеры непосредственно с эталонным белым цветовым пространством, указанным на выходе. 21 В случае sRGB Eq. (42)
[RL = 1GL = 1BL = 1] D65 = R_ [R = 1G = 1B = 1] эталон. Eq.(43)
[RL = 1GL = 1BL = 1] D65 = R_D_ [R (AW) G (AW) B (AW)] сцена. 5.1.
Умножитель и развязка матрицы
Рис. 8
Eq. (44)
R_i = M_sRGB − 1 CAT_AW → D65 T_i D_i − 1, где i = 1… n. Когда AW рассчитывается камерой, может быть выбрана матрица поворота цвета R_i, оптимизированная для наиболее подходящей предустановки WP или CCT. Однако матрица WB D_, соответствующая AW, всегда применяется до R_i, поэтому полное преобразование цвета может быть выражено как Eq.(45)
[RLGLBL] D65 = (M_sRGB − 1 CAT_AW → D65 T_i D_i − 1) D_ [RGB] сцена. Поскольку D_ отделен от матриц вращения, этот подход позволит добиться правильного баланса белого без необходимости интерполировать матрицы вращения. . 5.2.
Пример: Olympus E-M1
Таблица 1
Диапазон CCT (K) Матрица вращения (фиксированная точка) Матрица вращения 2000 → 3000 [320−36−28−683081614−248490] [1.2500-0.1406-0.1094-0.26561.20310.06250.0547-0.96881.9141] 3100 → 3400 [332-52-24-58320-612-192436] [1.2969-0.2031-0.0938-0.22661 −0.02340.0469−0.75001.7031] 3500 → 3700 [340−60−24−56324−1212−172416] [1.3281−0.2344−0.0938−0.21881.2656−0.04690.0461−0.67 6250] 3800 → 4000 [346-68-22-52332-2410-160406] [1,3516-0,2656-0,0859-0,20311,2969-0.09380.0391−0.62501.5859] 4200 → 4400 [346−68−22−48332−2812−160404] [1.3516−0,2656−0,0859−0,18751.2969−0.10940.046175 4600 → 5000 [354−76−22−44336−3610−148394] [1,3828−0,2969−0,0859−0,17191,3125−0,14060,0391−0,57811,5391] 56007 00 → [366-88-22-42340-4210-136382] [1,4297-0,3438-0,0859-0,16411,3281-0,16410,0391-0,53131,4922] 5800 → 6600 22 [374-96 −42348−508−124372] [1.4609-0,3750-0,0859-0,16411,3594-0,19530,0313-0,48441,4531] 6800 → 14000 [388-108-24-38360-668-112360] [1,5156-0,42 .4063−0.25780.0313−0.43751.4063] Рис. 9
Таблица 2
Режим сцены CCT (K) Множители Матрица вращения (фиксированная точка) Хорошая погода 5300 474 256 414 [36 −22−42340−4210−136382] Хорошая погода с тенью 7500 552 256 326 [388−108−24−38360−668−112360] Облачно 6000 907 510 256 380 [374−96−22−42348−508−124372] Вольфрам (накаливания) 3000 276 256 728 [320−36−28−683081614−248490] Холодный белый люминесцентный 4000 470 256 580 [430−168−6−50300612−132376] Под водой 450 256 444 [366−88−22−42340−4210−136382] Flash 5500 562 256 366 [366−88−22−42340−4210−136382] Ур. (46)
R_≡R_D65 = M_sRGB − 1 T_D65 D_D65−1. Подставляя в уравнение (37) дает Ур.(47)
[RLGLBL] D65 = M_sRGB-1 T_D65 D_D65-1 D_D65 [RGB] сцена. Следовательно, матрица вращения обращает эффект матрицы WB, поскольку освещение сцены и дисплея одинаковое. Рис. 10
6.
DCRaw Конвертер RAW с открытым исходным кодом
Eq. (48)
R_D65 = M_sRGB-1 T_D65 D_D65-1. Диагональная матрица баланса белого D_D65 содержит множители сырых каналов, подходящие для освещения D65: Eq. (49)
D_D65 = [1R (WP) 0001G (WP) 0001B (WP)] D65 = [1R (D65) 0001G (D65) 0001B (D65)]. Общее преобразование из необработанного пространства камеры в линейную форму sRGB определяется Eq.(50)
[RLGLBL] D65≈R_D65 D_ [RGB] сцена, которую можно более явно записать как Eq. (51)
[RLGLBL] D65≈M_sRGB − 1 T_D65 [R (D65) R (AW) 000G (D65) G (AW) 000B (D65) B (AW)] [RGB] сцена. Следовательно, вся хроматическая адаптация выполняется выполняется с использованием множителей сырых каналов. Обратите внимание, что матрица WB D_, соответствующая оценке освещенности сцены, всегда применяется к необработанным данным в формуле. (50), поэтому WB всегда в принципе достигается правильно. Таблица 3
-v Печатать подробные сообщения -w По возможности использовать камеру WB -A Среднее значение серого поля для WB rgbgr- > Установить индивидуальный WB + M / -M Использовать / не использовать встроенную цветовую матрицу -H [0-9] Режим выделения (0 = клип, 1 = отсоединить, 2 = смешивание, 3+ = перестроение) -o [0-6] Выходное цветовое пространство (raw, sRGB, Adobe, Wide, ProPhoto, XYZ, ACES) -d Режим документа ( без цвета, без интерполяции) -D Режим документа без масштабирования (полностью необработанный) -W Не увеличивать автоматически яркость изображения -b Регулировка яркости ( по умолчанию = 1.0) -g Установить пользовательскую кривую гаммы (по умолчанию = 2,222 4,5) -q [0-3] Установить качество интерполяции -h Половина -размер цветного изображения (в два раза быстрее, чем «-q 0») -f Интерполировать RGGB как четыре цвета -6 Записать 16-битное вместо 8-битного — 4 Линейный 16-битный, такой же, как «-6 -W -g 1 1» -T Записать TIFF вместо PPM 6.1.
Пример: Olympus E-M1
Ур. (52)
T_D65 = (1cColorMatrix2 _) — 1, где c — нормировочная константа. Для цифровой камеры Olympus E-M1 исходный код DCRaw хранит записи ColorMatrix2 следующим образом: 7687, −1984, −606, −4327, 11928, 2721, −1381, 2339, 6452. Деление на 10000 и преобразование в матричная форма дает Eq.(53)
ColorMatrix2 _ = [0,7687-0,1984-0,0606-0,43271,19280.2721-0,13810,23390,6452]. Обратитесь к разд. 2.5 следует, что характеристические матрицы обычно нормализованы так, что WP характеристического источника света отображается на необработанные значения, так что максимальное значение (обычно зеленый канал) просто достигает насыщения, когда 100% нейтральный диффузный отражатель фотографируется под характеризующим источником света. Хотя матрицы ColorMatrix2 оптимизированы для освещения CIE D65, они по умолчанию нормализованы в соответствии с WP осветителя CIE D50, а не D65: Eq.(54)
[R (WP) G (WP) B (WP)] D50 = ColorMatrix2_ [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, где max {R (WP) , G (WP), B (WP)} = 1. Соответственно, их необходимо масштабировать для использования с DCRaw: Eq. (55)
[R (WP) G (WP) B (WP)] D65 = 1cColorMatrix2_ [X (WP) = 0.9504Y (WP) = 1.0000Z (WP) = 1.0888] D65, где max {R (WP) , G (WP), B (WP)} = 1. В данном примере найдено, что c = 1,0778, поэтому Eq. (56)
T_D65-1 = [0,7133-0,1841-0,0562-0,40151,10680,2525-0,12810,21700,5987]. С учетом единичного вектора в цветовом пространстве sRGB указанная выше матрица может быть использована для получения исходных значений трехцветного изображения для D65. освещение WP: Ур.(57)
[R (WP) = 0,4325G (WP) = 1,0000B (WP) = 0,7471] D65 = T_D65−1 M_sRGB [RL = 1GL = 1BL = 1] D65, где M_sRGB преобразуется из линейной формы sRGB. в CIE XYZ. Теперь уравнение. (49) можно использовать для извлечения множителей сырых каналов для освещения сцены с D65 WP: Eq. (58)
D_D65 = [2.311700010001.3385]. Наконец, матрица вращения цвета может быть рассчитана по формуле. (48): Ур. (59)
R_D65 = [1,7901−0,6689−0,1212−0,21671,7521−0,53540,0543−0,55821,5039]. Сумма в каждой строке при необходимости сводится к единице. Форма матрицы аналогична встроенным в камеру матрицам Olympus, перечисленным в таблице 1.Для целей сравнения соответствующая приведенная матрица является той, которая действительна для CCT источников света сцены в диапазоне от 5800 до 6600 K. Ожидаются некоторые численные различия, поскольку освещение D65 имеет цветовой оттенок Duv = 0,0032. Другие численные различия, вероятно, связаны с разницей в методах характеризации Olympus и Adobe. Кроме того, Adobe использует таблицы HSV (оттенок, насыщенность и значение) для имитации окончательной цветопередачи встроенного в камеру механизма обработки JPEG. 6.2.
DCRaw и MATLAB
7.
Adobe DNG
7.1.
Метод 1. Цветовые матрицы
Ур. (60)
[XYZ] D50 = CAT_AW → D50 C_ − 1 [RGB] сцена. Здесь C_ — это цветовая матрица Adobe, оптимизированная для сцены AW. Из-за требований логики восстановления выделения, цветовые матрицы Adobe отображаются в направлении от цветового пространства CIE XYZ до необработанного пространства камеры: Eq.(61)
[RGB] scene = C_ [XYZ] scene. Это направление, противоположное традиционной матрице характеристик T_, поэтому после обратного преобразования C_ из необработанного пространства камеры в CIE XYZ для адаптации применяется линейная Брэдфордская CAT AW к WP PCS. 7.2.
Нормализация цветовой матрицы
Eq. (63)
[R (WP) G (WP) B (WP)] D50 = ColorMatrix1_ [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, [R (WP) G ( WP) B (WP)] D50 = ColorMatrix2_ [X (WP) = 0.9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, где max {R (WP), G (WP), B (WP)} = 1. Например, значения по умолчанию ColorMatrix1 и ColorMatrix2 для камеры Olympus E-M1, соответственно, нормализованы следующим образом: Eq. (64)
[R (WP) = 0,5471G (WP) = 1,0000B (WP) = 0,6560] D50 = [1,1528-0,57420,0118-0,24531,02050,2619-0,07510,1890,6539] [X (WP) = 0,9642Y ( WP) = 1,0000Z (WP) = 0,8249] D50, [R (WP) = 0,4928G (WP) = 1,0000B (WP) = 0,6330] D50 = [0,7687-0,1984-0,0606-0,43271,19280,2721-0,13810,23390,6452] [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50. Eq. (65)
[X (WP) = 0.9641Y (WP) = 1.0000Z (WP) = 0.8249] D50 = CAT_AW → D50 C_ − 1 [R (AW) G (AW) B (AW)] сцена, где макс. {R (WP), G (WP), B (WP)} = 1. Это эквивалентно перенормировке C_ следующим образом: Eq. (66)
[R (AW) G (AW) B (AW)] сцена = C_ [X (AW) Y (AW) Z (AW)] сцена, где Y (AW) = 1 и max {R (WP ), G (WP), B (WP)} = 1. 7.3.
Линейная интерполяция на основе обратной CCT
Ур. (67)
C_ = α ColorMatrix1 _ + (1 − α) ColorMatrix2_, где α — зависимое от CCT взвешивание, которое зависит от обратного CCT: Eq. (68)
α = (CCT (AW)) — 1− (CCT2) −1 (CCT1) −1− (CCT2) −1. Эти веса (обозначены g и 1 − g в исходном коде Adobe DNG SDK) проиллюстрированы на рис. 11 для пары примерных значений CCT1 и CCT2. Интерполяция действительна для CCT (1) ≤CCT (AW) ≤CCT (2). Если CCT (AW) Eq. (69)
[X (AW) Y (AW) Z (AW)] сцена = C_ − 1 [R (AW) G (AW) B (AW)] сцена. Это дает новое предположение для (x (AW) , y (AW)). Рис. 11
Рис. 12
Рис. 13
7.4.
Метод 2: Прямые матрицы
Eq.(70)
[XYZ] D50 = F_D_ [RGB] сцена. Преобразование цвета можно разделить на два этапа. Eq.(71)
[R = 1G = 1B = 1] = D_ [R (AW) G (AW) B (AW)] сцена. Обратите внимание, что спецификация Adobe DNG также учитывает необработанные множители каналов, применяемые в аналоговой области. 32 Однако в последних цифровых камерах используются АЦП с относительно высокой битовой глубиной порядка 12 или 14, и, следовательно, в цифровой области используются умножители необработанных каналов. Eq. . (72)
[X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50 = F_ [R = 1G = 1B = 1]. Eq. (73)
F_ = α ForwardMatrix1 _ + (1 − α) ForwardMatrix2_. На рисунке 14 показана оптимизированная прямая матрица, интерполированная из ForwardMatrix1 и ForwardMatrix2 и выраженная как функция CCT для камеры Olympus E-M1. Рис. 14
7.5.
Спецификация прямой матрицы
Ур. (74)
F_ = CAT_AW → D50 C_ − 1 D_ − 1. Поскольку на практике F_ интерполируется из ForwardMatrix1 и ForwardMatrix2, они определяются как Eq. (75)
ForwardMatrix1_ = CAT_AW → D50 ColorMatrix1_ − 1 D_ − 1ForwardMatrix2_ = CAT_AW → D50 ColorMatrix2_ − 1 D_ − 1 Согласно уравнению. (72) оптимизированная прямая матрица F_ по определению нормализована так, что единичный вектор в необработанном пространстве камеры отображается на WP D50 PCS. 32 Это означает, что ForwardMatrix1 и ForwardMatrix2 также должны быть нормализованы таким образом. Например, значения по умолчанию ForwardMatrix1 и ForwardMatrix2 для камеры Olympus E-M1, соответственно, нормализованы следующим образом: Eq. (76)
[X (WP) = 0.9643Y (WP) = 0.9999Z (WP) = 0.8251] D50 = [0.47340.36180.12910.27650.68270.04070.21160.00060.6129] [R = 1G = 1B = 1], [X ( WP) = 0.9643Y (WP) = 1.0000Z (WP) = 0.8252] D50 = [0.46330.32440.17660.27790.66610.05600.17220.00330.6497] [R = 1G = 1B = 1]. Официальный WP D50 PCS на самом деле X = 0.9642, Y = 1,0000 и Z = 0,8249, 40 , что является 16-битным дробным приближением истинного D50 WP, определяемого как X = 0,9642, Y = 1,0000 и Z = 0,8251. 8.
Выводы
9.
Приложение: Модель необработанных данных
Eq.(77)
E˜e, λ (x, y) = [Ee, λ, ideal (x, y) * h (x, y, λ)] comb [xpx, ypy], где px и py — пиксель смолы в горизонтальном и вертикальном направлениях. Также может быть включена модель шума. 28 , 51 Величина, обозначенная Ee, λ, ideal (x, y), представляет собой идеальную спектральную освещенность на плоскости датчика, которая теоретически может быть получена в отсутствие системы PSF: Eq. (78)
Eλ, ideal (x, y) = π4Le, λ (xm, ym) 1Nw2T cos4 {φ (xm, ym)}, где Le, λ — соответствующая спектральная яркость сцены, m — увеличение системы, Nw — рабочее f-число объектива, T — коэффициент пропускания линзы, а φ — угол между оптической осью и указанными координатами сцены.Если известен профиль виньетирования объектива, четвертый член косинуса можно заменить коэффициентом относительной освещенности, который представляет собой функцию пространства изображения, описывающую реальный профиль виньетирования. 52 Eq. (80)
gi = UGISO, i, U = ne, i, FWCnDN, i, clip. Здесь U — единичный коэффициент усиления, который представляет собой настройку усиления, при которой gi = 1. Полнолуночная емкость обозначается символами ne, i, FWC и nDN, i, clip — это точка отсечения необработанного сигнала, которая представляет собой максимально доступный необработанный уровень. Это значение не обязательно равно максимальному необработанному уровню, обеспечиваемому АЦП с учетом его битовой глубины M, которая составляет 2M-1 DN, особенно если камера включает смещение смещения, которое вычитается перед записью необработанных данных. 28 , 53 © 2005 KenRockwell.com
Как они создают спецэффекты в таких фильмах, как «Матрица», где камера вращается вокруг застывшего актера?
MATRIX VISION
Печенье
Матрица (использование)
Матрица (объяснение)
Просмотр содержимого матрицы (объяснение)
Отправка видео получателям Matrix вручную
DSLR Processing — Отсутствующая матрица — DSLR, беззеркальные и универсальные цифровые камеры DSO Imaging
{6461, -907, -882, -4300,12184,2378, -819,1944,5931}},
Станьте первым комментатором