Уже да. Ну не "исключительно", но в определяющей мере физикой. CCD-сенсорам уже довольно много лет (40?), фотодиодам ещё больше. Квантовая эффективность фотодиода за это время (что там по акустику говорилось?) уже достаточно вылизана и дальше http://caxapa.ru/151814.html?todo=full
http://www.dpreview.com/reviews/specs/Olympus/oly_c2100uz.asp
особо некуда расти. Всё остальное в разы, многое даже на десятки процентов, тоже уже не улучшить именно из-за упора в физику. Чем меньше сенсор, тем, при том же относительном отверстии, меньше "морда" объектива, она при прочих равных условиях, включая выдржку, собирает меньше света (на пиксел, на сенсор - не важно). Меньше света - больше дробовый шум даже при 100% квантовой эффективности фотопримника. Физика. Попробуйте сосчитать число фотоэлектронов на пиксел у современных мыльничных сенсоров, взять из него квардратный корень и увидеть дробовый шум. Технология только в шумодавах может совершенствоваться, и то физика предел поставит. Если малоконтрастный малоразмерный объект "утонул" в шумах, то никакой шумодав его не вытянет (ну, можно включить протяжённость во времени, снять десяток кадров и усреднить, но тогда картинка должна быть статической). Пропадание с картинки мелих малоконтрастных деталей, каждая из которых и не привлекала внимания, делает её "пластмассовой". Я сам часто говорю (говорил) - при печати на 10*15см или разглядывании на мониторе полного кадра (а не фрагмента) общее число пикселов сенсора не имеет значения, оно всё равно пересчитается с соответствующей фильтрацией (не "шумодавной" даже, а "децимационной") в один-два мегапиксела, важно будет то, сколько света получил каждый такой "вирутальный" пиксел, т.е. размер сенсора, а не размер пиксела. Но это в нулевом приближении, когда мы сравниваем, скажем, 2-4-6 мегапикселов на сенсоре 1/1.7"-1/1.8"-1/2". Когда сравнивать 10-12-14МП на той же площади, то тоже вроде бы ничего не меняется с точки зрения "качества" кадра в целом на мониторе или небольшом отпечатке. Но вот уже между 2 и 8 разница будет заметна :-) Видел кадры с 1.9-мегапиксельного на 1/2" Олимпуса C2100. Аппарату десять лет, за это время "семи-mil-ными" шагами технология шагнула (1mil = 0.001", мы-то знаем). Но из нынешних с около таки размером сенсора и около 10 мегапикселов мало что даёт картинку лучше. Эффективная площадь пиксела (как % от размера) и, соответственно, всего сенсора, могла бы расти с совершенствованием технологии и уменьшением норм (уменьшением размера слжебной части), но рост числа мегапикселов успешно это компенсирует. Кроме этого: чем меньше пиксел, тем большую долю его площади занимает краевая область, из которой больше вероятность туннелирования электрона в соседний пиксел ("другого цвета") - дополнительный цветовой шум. "Усугубление" работы стоп-областей между пикселами эти электроны перехватывает, цветовой шум уменьшается, но так и уменьшается количество сохранённых для считывания электронов - растёт яркостный шум, одну ногу вытащили, другая глубже провалилась. Сравним длину волны света с размером пиксела (чёрт, ну не даёт мне покоя "элиз" - "ЭЛементИЗображения" из статей в наших журналах середины 80-ых, нравится, Бетховеном отдаёт :-) ). Что там куда проскакивает, на какой глубине фотон порождает пару носителей, как эта глубина соотносится с линейным размером пиксела? Где это будет "вдоль поверхности" с учётом косого хода лучей (*1)? В каком пикселе "всплывёт" этот электрон и какой вклад в цветовой шум будет этих косых лучей? (ага, от объектива с большим относителным отверстием, то-то на мыльницах лучше 2.8 уже редко бывает (опять сноска *1). Как их ради этого придётся давить и, см. выше, удавливать в болото другую ногу? Квантовые эффекты, которые никакой технологией не перебить, уже вовсю работают. (*1) Там ещё микролинзы могут быть. Типа круто, собираем тот свет, который упал на нерабочую с точки зрения сбора фотоэлектронов часть сенсора и направляем в пиксел. Таким образом повышая QE*FF (quantum efficiency * fill factor). Но эти микролинзы ещё более "закашивают" те "косые" лучи, которые идут от краёв объектива. В результате обектив высокой светосилы начинает терять значение с точки зрения энергетики, так как "косые" лучи всё равно "умирают" в стоп-областях между пикселами. Эффект прекрасно наблюдался на соневских ч/б матрицах ТВ-формата ICX055 с разными буквами и ICX255. Если на самых ранних, без микролинз и вообще старючих, смена объектива с относительным отверстием 1.4 - 1.2 - 0.8 давала соответствие рассчёту, то для новых сенсоров с микролинзами объектив 0.8 по сравнению с 1.2 давал даже не двукратный рост чувствительности. И 1.2 по сравнению с 1.4 давал несколько меньше ожидаемого, но не так "серпом по". Собственно, строка
http://www.dpreview.com/reviews/specs/Olympus/oly_c2100uz.asp
особо некуда расти. Всё остальное в разы, многое даже на десятки процентов, тоже уже не улучшить именно из-за упора в физику. Чем меньше сенсор, тем, при том же относительном отверстии, меньше "морда" объектива, она при прочих равных условиях, включая выдржку, собирает меньше света (на пиксел, на сенсор - не важно). Меньше света - больше дробовый шум даже при 100% квантовой эффективности фотопримника. Физика. Попробуйте сосчитать число фотоэлектронов на пиксел у современных мыльничных сенсоров, взять из него квардратный корень и увидеть дробовый шум. Технология только в шумодавах может совершенствоваться, и то физика предел поставит. Если малоконтрастный малоразмерный объект "утонул" в шумах, то никакой шумодав его не вытянет (ну, можно включить протяжённость во времени, снять десяток кадров и усреднить, но тогда картинка должна быть статической). Пропадание с картинки мелих малоконтрастных деталей, каждая из которых и не привлекала внимания, делает её "пластмассовой". Я сам часто говорю (говорил) - при печати на 10*15см или разглядывании на мониторе полного кадра (а не фрагмента) общее число пикселов сенсора не имеет значения, оно всё равно пересчитается с соответствующей фильтрацией (не "шумодавной" даже, а "децимационной") в один-два мегапиксела, важно будет то, сколько света получил каждый такой "вирутальный" пиксел, т.е. размер сенсора, а не размер пиксела. Но это в нулевом приближении, когда мы сравниваем, скажем, 2-4-6 мегапикселов на сенсоре 1/1.7"-1/1.8"-1/2". Когда сравнивать 10-12-14МП на той же площади, то тоже вроде бы ничего не меняется с точки зрения "качества" кадра в целом на мониторе или небольшом отпечатке. Но вот уже между 2 и 8 разница будет заметна :-) Видел кадры с 1.9-мегапиксельного на 1/2" Олимпуса C2100. Аппарату десять лет, за это время "семи-mil-ными" шагами технология шагнула (1mil = 0.001", мы-то знаем). Но из нынешних с около таки размером сенсора и около 10 мегапикселов мало что даёт картинку лучше. Эффективная площадь пиксела (как % от размера) и, соответственно, всего сенсора, могла бы расти с совершенствованием технологии и уменьшением норм (уменьшением размера слжебной части), но рост числа мегапикселов успешно это компенсирует. Кроме этого: чем меньше пиксел, тем большую долю его площади занимает краевая область, из которой больше вероятность туннелирования электрона в соседний пиксел ("другого цвета") - дополнительный цветовой шум. "Усугубление" работы стоп-областей между пикселами эти электроны перехватывает, цветовой шум уменьшается, но так и уменьшается количество сохранённых для считывания электронов - растёт яркостный шум, одну ногу вытащили, другая глубже провалилась. Сравним длину волны света с размером пиксела (чёрт, ну не даёт мне покоя "элиз" - "ЭЛементИЗображения" из статей в наших журналах середины 80-ых, нравится, Бетховеном отдаёт :-) ). Что там куда проскакивает, на какой глубине фотон порождает пару носителей, как эта глубина соотносится с линейным размером пиксела? Где это будет "вдоль поверхности" с учётом косого хода лучей (*1)? В каком пикселе "всплывёт" этот электрон и какой вклад в цветовой шум будет этих косых лучей? (ага, от объектива с большим относителным отверстием, то-то на мыльницах лучше 2.8 уже редко бывает (опять сноска *1). Как их ради этого придётся давить и, см. выше, удавливать в болото другую ногу? Квантовые эффекты, которые никакой технологией не перебить, уже вовсю работают. (*1) Там ещё микролинзы могут быть. Типа круто, собираем тот свет, который упал на нерабочую с точки зрения сбора фотоэлектронов часть сенсора и направляем в пиксел. Таким образом повышая QE*FF (quantum efficiency * fill factor). Но эти микролинзы ещё более "закашивают" те "косые" лучи, которые идут от краёв объектива. В результате обектив высокой светосилы начинает терять значение с точки зрения энергетики, так как "косые" лучи всё равно "умирают" в стоп-областях между пикселами. Эффект прекрасно наблюдался на соневских ч/б матрицах ТВ-формата ICX055 с разными буквами и ICX255. Если на самых ранних, без микролинз и вообще старючих, смена объектива с относительным отверстием 1.4 - 1.2 - 0.8 давала соответствие рассчёту, то для новых сенсоров с микролинзами объектив 0.8 по сравнению с 1.2 давал даже не двукратный рост чувствительности. И 1.2 по сравнению с 1.4 давал несколько меньше ожидаемого, но не так "серпом по". Собственно, строка
High sensitivity (+4dB at F8, +2dB at F1.2 compared with ICX055AL)из документации на ICX055BL сама об этом говорит.
-
- Поговаривают, что CMOS-матрицам примерно столько же годков, но почему-то народ с напильниками не унимается - Vit(07.02.2011 11:22, ссылка)
- ЖК-дисплеям тоже довольно много лет, но в современном виде они существуют не так давно, да и совершенствуются сейчас очень быстро - koyodza(06.02.2011 17:24)
- Дык светочувствительные матрицы тоже не стоят на месте. Vallav(293 знак., 12.02.2011 17:07)