разница между фотокамерой в RAW и спутниковым сканером
-
- Участник
- Сообщения: 56
- Зарегистрирован: 26 июл 2012, 14:53
- Репутация: 4
разница между фотокамерой в RAW и спутниковым сканером
Здравствуйте! Ну вообщем то разбираюсь с теоретической частью ДЗЗ. Задался таким вопросом:
Существует ли разница между информацией снятой фотокамерой в формате RAW на летательном аппарате, шаре и спутниковым сканером ?
Ну имеется ввиду разница в красном - зеленом - синем диапазоне. Ведь в основном неспециализированные фотики регистрируют только видимый диапазон.
И если существует то насколько она большая?
Извиняюсь, если вопрос кажется глупым!
Существует ли разница между информацией снятой фотокамерой в формате RAW на летательном аппарате, шаре и спутниковым сканером ?
Ну имеется ввиду разница в красном - зеленом - синем диапазоне. Ведь в основном неспециализированные фотики регистрируют только видимый диапазон.
И если существует то насколько она большая?
Извиняюсь, если вопрос кажется глупым!
- Aleksandr Dezhin
- Активный участник
- Сообщения: 244
- Зарегистрирован: 03 фев 2010, 10:47
- Репутация: 14
- Откуда: Москва
Re: Теоретический вопрос
Что-то общее определенно есть, но есть и различия, например очевидно, что по крайней мере некоторые сенсоры фиксируют не все каналы одновременно, как зеркальный фотоаппарат, а по очереди. Это хорошо видно по тому, как самолеты попавшие в кадр раскладываются на каналы на спутниковых снимках.
Современные цифровые фотоаппараты, как правило имею повышенную чуствительность в красном диапазоне, в сенсорах ДЗЗ чуствительность по каналам выбирается в соответствии с задачами, некоторые области могут вообще отстутствовать. Например, если я ничего не путаю, в IRS, который нам показывают на космоснимках яндекса, изначально отсутствует синий канал.
Так же, существуют не только оптические сенсоры, но и радиометрические, которые и по устройству и по характеру получаемых данных отличаются.
Как количественно оценить эти разичия не очень понятно.
Современные цифровые фотоаппараты, как правило имею повышенную чуствительность в красном диапазоне, в сенсорах ДЗЗ чуствительность по каналам выбирается в соответствии с задачами, некоторые области могут вообще отстутствовать. Например, если я ничего не путаю, в IRS, который нам показывают на космоснимках яндекса, изначально отсутствует синий канал.
Так же, существуют не только оптические сенсоры, но и радиометрические, которые и по устройству и по характеру получаемых данных отличаются.
Как количественно оценить эти разичия не очень понятно.
- Дмитрий Барышников
- Гуру
- Сообщения: 2572
- Зарегистрирован: 17 ноя 2009, 19:17
- Репутация: 261
- Откуда: Москва
Re: разница между фотокамерой в RAW и спутниковым сканером
Условия съемки совершенно разные. Из космоса при съемке приходится учитывать толщу атмосферы, окна прозрачности - для этого используют определенные светофильтры, да и сами матрицы ПЗС чувствительны в несколько иных диапазонах и бит на пиксел обычно 11 или 12. Вот диапазоны WV-2:


-
- Участник
- Сообщения: 56
- Зарегистрирован: 26 июл 2012, 14:53
- Репутация: 4
Re: разница между фотокамерой в RAW и спутниковым сканером
Здравствуйте! Ок, пока не услышал того что хотел, поэтому раскручиваем дальше.
Представляем себе что не существует атмосферы, и других внешних факторов которые влияют на съемку со спутника =). Вообщем разбираем чисто технологический момент.
Да маленькое отступление, нашел такую информацию по принципу работы фотокамеры:
Прежде чем переходить к описанию этого технологического процесса, необходимо напомнить о том, что в подавляющем большинстве современных цифровых фотоаппаратов каждый пиксел светочувствительного сенсора может воспринимать яркостный сигнал лишь по одному из трех цветовых каналов (красному, зеленому или синему) — в зависимости от цвета фильтра, находящегося над данным элементом1. Светофильтры располагаются по так называемой байеровской схеме, структура которой построена с учетом особенностей зрительного восприятия человека
Рис. 1. Наиболее распространенная схема расположения светофильтров в светочувствительных сенсорах современных цифровых фотокамер
Основные стадии преобразования изображения на пути от объектива камеры до светочувствительного сенсора показаны на рис. 2. Как можно видеть, светочувствительный сенсор камеры фиксирует монохромное изображение: каждый его пиксел имеет лишь одну координату (яркости). Запечатленный сенсором камеры образ кадра (на рис. 2 справа) является неким полуфабрикатом, на основе которого формируется полноцветное изображение. Подобное преобразование (demosaic) представляет собой довольно сложную процедуру: используя замысловатые алгоритмы интерполяции величин яркости большого количества соседних пикселов, процессор камеры рассчитывает значения координат недостающих цветовых каналов для каждого пиксела изображения.

Рис. 2. Проецируемое объективом цифровой камеры исходное изображение (слева) проходит через мозаичную систему светофильтров (результат — в центре) и в виде монохромного образа (справа) фиксируется светочувствительным сенсором
Источник
Получается RAW в фотокамерах дает ложь потому что снимает только одно значения для пиксела как здесь пишут "координаты (яркости)".
Но в этой же статье упоминается о некой фирме Foveon которая фиксирует все три значения для каждого пиксела.
Вот принцип ее работы:

Ну и картинка которая показывает полное отличия байеровской системы и системы используемой в Foveon

Так вот теперь правильно ли я понимаю что при идеальных условиях ( не существует атмосфера и т.д.), спектральные характеристики снимков снятым спутником и фоткой сделанной камерой с сенсором Foveon будут одинаковыми?
З.Ы. Характеризуются только синий, зеленый, красный спектр!
Представляем себе что не существует атмосферы, и других внешних факторов которые влияют на съемку со спутника =). Вообщем разбираем чисто технологический момент.
Да маленькое отступление, нашел такую информацию по принципу работы фотокамеры:
Прежде чем переходить к описанию этого технологического процесса, необходимо напомнить о том, что в подавляющем большинстве современных цифровых фотоаппаратов каждый пиксел светочувствительного сенсора может воспринимать яркостный сигнал лишь по одному из трех цветовых каналов (красному, зеленому или синему) — в зависимости от цвета фильтра, находящегося над данным элементом1. Светофильтры располагаются по так называемой байеровской схеме, структура которой построена с учетом особенностей зрительного восприятия человека

Рис. 1. Наиболее распространенная схема расположения светофильтров в светочувствительных сенсорах современных цифровых фотокамер
Основные стадии преобразования изображения на пути от объектива камеры до светочувствительного сенсора показаны на рис. 2. Как можно видеть, светочувствительный сенсор камеры фиксирует монохромное изображение: каждый его пиксел имеет лишь одну координату (яркости). Запечатленный сенсором камеры образ кадра (на рис. 2 справа) является неким полуфабрикатом, на основе которого формируется полноцветное изображение. Подобное преобразование (demosaic) представляет собой довольно сложную процедуру: используя замысловатые алгоритмы интерполяции величин яркости большого количества соседних пикселов, процессор камеры рассчитывает значения координат недостающих цветовых каналов для каждого пиксела изображения.

Рис. 2. Проецируемое объективом цифровой камеры исходное изображение (слева) проходит через мозаичную систему светофильтров (результат — в центре) и в виде монохромного образа (справа) фиксируется светочувствительным сенсором
Источник
Получается RAW в фотокамерах дает ложь потому что снимает только одно значения для пиксела как здесь пишут "координаты (яркости)".
Но в этой же статье упоминается о некой фирме Foveon которая фиксирует все три значения для каждого пиксела.
Вот принцип ее работы:

Ну и картинка которая показывает полное отличия байеровской системы и системы используемой в Foveon

Так вот теперь правильно ли я понимаю что при идеальных условиях ( не существует атмосфера и т.д.), спектральные характеристики снимков снятым спутником и фоткой сделанной камерой с сенсором Foveon будут одинаковыми?
З.Ы. Характеризуются только синий, зеленый, красный спектр!
-
- Гуру
- Сообщения: 3321
- Зарегистрирован: 27 июл 2009, 19:26
- Репутация: 748
- Ваше звание: Вредитель полей
Re: разница между фотокамерой в RAW и спутниковым сканером
paradox, чем вам не угодила байеровская мозаика и в чем "ложь"?
Если бы не существовало дифракции, дисперсии света и прочих эффектов в оптике, а разрешение оптики многократно превышало бы разрешение сенсора, то действительно - изображение в разных спектральных каналах, снятых фотоаппаратом с байеровским расположением пикселей, могло бы существенно различаться, т.к. изображение минимальной детали сцены могло бы целиком уместиться в пиксель одного канала, но не попасть в соседние. Это приводило бы, например, к сильному цветному муару при съемке регулярных структур. Но на практике же соотношение диаметра пятна размытия (отклонения от идеального фокуса) и размеров пикселей сенсора таково, что этого не происходит. Достигается это, кроме всего прочего, использованием в матрицах фотоаппаратов размывающего (antialiasing) фильтра.
Замечу, что сенсоры спутников тоже не идеальны - там съемка в разных каналах вообще разнесена во времени, от чего происходят цветные артефакты от ярких отражений (оцинкованные крыши), цветные "призраки" самолетов и тому подобное.
Матрицы foveon, к слову, тоже не идеальны - смещение каналов там, конечно, отсутствует, но вот отклик каналов, мягко говоря, оказался слабо детерминирован. То есть проблема пространственного несовпадения каналов там отсутствует, за то спектральная характеристика похожа на чёрт знает что.
Хотите идеальную камеру? Смойте цветные микрофильтры (или закажите эту операцию в одной из иностранных фирм, которые этим занимаются), снабдите камеру устройством смены светофильтров на объективе (можно позаимствовать готовое из небольшого сценического прожектора, и получите систему, которая будет щелкать три канала за пару секунд.
P.S.: Если возможно, постарайтесь не цитировать километровые тезисы с картинками из каких-то источников - раз вы хотите услышать мнение знающих людей, не логично ли предположить, что они в курсе того, что вы цитируете? По возможности, излагайте свои собственные мысли и вопросы, а то они в куче цитат теряются.
Если бы не существовало дифракции, дисперсии света и прочих эффектов в оптике, а разрешение оптики многократно превышало бы разрешение сенсора, то действительно - изображение в разных спектральных каналах, снятых фотоаппаратом с байеровским расположением пикселей, могло бы существенно различаться, т.к. изображение минимальной детали сцены могло бы целиком уместиться в пиксель одного канала, но не попасть в соседние. Это приводило бы, например, к сильному цветному муару при съемке регулярных структур. Но на практике же соотношение диаметра пятна размытия (отклонения от идеального фокуса) и размеров пикселей сенсора таково, что этого не происходит. Достигается это, кроме всего прочего, использованием в матрицах фотоаппаратов размывающего (antialiasing) фильтра.
Замечу, что сенсоры спутников тоже не идеальны - там съемка в разных каналах вообще разнесена во времени, от чего происходят цветные артефакты от ярких отражений (оцинкованные крыши), цветные "призраки" самолетов и тому подобное.
Матрицы foveon, к слову, тоже не идеальны - смещение каналов там, конечно, отсутствует, но вот отклик каналов, мягко говоря, оказался слабо детерминирован. То есть проблема пространственного несовпадения каналов там отсутствует, за то спектральная характеристика похожа на чёрт знает что.
Хотите идеальную камеру? Смойте цветные микрофильтры (или закажите эту операцию в одной из иностранных фирм, которые этим занимаются), снабдите камеру устройством смены светофильтров на объективе (можно позаимствовать готовое из небольшого сценического прожектора, и получите систему, которая будет щелкать три канала за пару секунд.
P.S.: Если возможно, постарайтесь не цитировать километровые тезисы с картинками из каких-то источников - раз вы хотите услышать мнение знающих людей, не логично ли предположить, что они в курсе того, что вы цитируете? По возможности, излагайте свои собственные мысли и вопросы, а то они в куче цитат теряются.
-
- Участник
- Сообщения: 56
- Зарегистрирован: 26 июл 2012, 14:53
- Репутация: 4
Re: разница между фотокамерой в RAW и спутниковым сканером
никто не сомневался у Ваших знаниях! это скорей для того что б Вы поняли что я хочу спросить, у меня не всегда получается задать вопрос так, что б все поняли что я хочу получить за ответparadox писал(а):что они в курсе того, что вы цитируете?

Учту на будущиеericsson писал(а):Если возможно, постарайтесь не цитировать километровые тезисы с картинками из каких-то источников

Ок, но как видите вы мне объяснили что разница не столько уж и значительна, как мне показалось.
И еще у меня возник такой вопрос: существует ли разница между RGB который понимает графический редактор (Photoshop, CorelPhotoPaint) и каналами красный зеленый и синий которые понимают ГИС ? (Надеюсь я понятно выразился

-
- Гуру
- Сообщения: 3321
- Зарегистрирован: 27 июл 2009, 19:26
- Репутация: 748
- Ваше звание: Вредитель полей
Re: разница между фотокамерой в RAW и спутниковым сканером
Я не о сомнении. Просто проблема в том, что чтобы вычленить собственно сам вопрос, приходится читать все это, а это - потеря времени.paradox писал(а): никто не сомневался у Ваших знаниях! это скорей для того что б Вы поняли что я хочу спросить, у меня не всегда получается задать вопрос так, что б все поняли что я хочу получить за ответ![]()
Да, вполне понятно. Разница существует, вполне определенная, хотя и не столь большая. Дело в том, что графические редакторы оперируют с разными цветовыми пространствами, то есть максимальные значения (255 при восьмибитном цвете) цветовых составляющих могут находиться на разных точках диаграммы CIE. Поглядите вот на эту статью, если требуются дополнительные пояснения http://en.wikipedia.org/wiki/CIE_1931_color_spaceparadox писал(а): И еще у меня возник такой вопрос: существует ли разница между RGB который понимает графический редактор (Photoshop, CorelPhotoPaint) и каналами красный зеленый и синий которые понимают ГИС ? (Надеюсь я понятно выразился)
-
- Участник
- Сообщения: 56
- Зарегистрирован: 26 июл 2012, 14:53
- Репутация: 4
Re: разница между фотокамерой в RAW и спутниковым сканером
еще раз спасибо!ericsson писал(а):ericsson

- Дмитрий Барышников
- Гуру
- Сообщения: 2572
- Зарегистрирован: 17 ноя 2009, 19:17
- Репутация: 261
- Откуда: Москва
Re: разница между фотокамерой в RAW и спутниковым сканером
Вы еще забыли вариант с оптической трапецией и разложением светового потока на 3 составляющих, с последующим экспонированием на отдельных матрицах. Типа такого 
А еще матрицы на спутнике работают в режиме ВЗН.

А еще матрицы на спутнике работают в режиме ВЗН.
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 1 гость