Trochę Sci-Fi / by Konrad Jakubowski

Pamiętam, kiedyś jak jeszcze nie ogarniałem robienia zdjęć i uczyłem się podstaw pracy z aparatem, to te pierwsze próby mierzenia ekspozycji czy szybkiej pracy z autofokusem często kończyły się poirytowaniem na fakt że aparat nie mógł gdzieś uchwycić ostrości albo że zdjęcie wychodziło nie takie jak chciałem a przecież miałem coś (scenę) przed sobą i było to dla mnie oczywiste jak zdjęcie powinno wyglądać a jak nie wyglądało. Irytowałem się, bo nie używałem przecież Camera Obscura tylko w pełni mainstreamowy automatik tamtych czasów, czyli F80/N80 Nikona (obecnie 15sto letni aparat) z nowocześnie wtedy brzmiącym Matrixowym pomiarem światła i w ogóle. Wtedy ktoś mi powiedział, albo gdzieś przeczytałem, już nie pamiętam, nie istotne, gdzieś przeczytałem że przecież aparat nie widzi tego co ja, że jest ślepą puszką. Utkwiło mi to w pamięci i zawsze jak kogoś wtajemniczam w fotograficzne tajniki to zawsze to przytaczam, bo uświadomienie sobie tego faktu ułatwia zrozumienie działania i AF i automatycznego pomiaru światła w aparatach. 

Nikon Multi-Cam 20K

Nikon Multi-Cam 20K

Czemu w ogóle o takich sucharach piszę? Parę dni temu Nikon pokazał światu nowy flagowy model swojej Pro lustrzanki, Nikona D5. Ochoczo dołączyłem do reszty świata i wszyscy jaramy się ISO 3 miliony 280 tysięcy i autofokusem Multi-Cam 20K, który ma 153 punkty AF w połączeniu z czujnikiem światła RGB który ma 180 tysięcy pikseli. Na tym etapie warto wspomnieć że od czasów D3, który dla mnie był i nadal jest i pewnie jakiś czas jeszcze będzie, idealnym aparatem, śledzenie prasy technologicznej to nie było moje zajęcie.  Na trochę wypadłem z obiegu więc to co teraz się dzieję trochę mnie zaskoczyło. A przeglądając dokładnie specyfikację i czytając wylew branżowych artykułów w temacie tego aparatu uświadomiłem sobie właśnie, że nawet nie wiem kiedy, bo przegapiłem całkowicie ten fakt, ale doczekaliśmy czasów że aparaty, w tym przypadku D5/D500, zaczęły widzieć to co fotografujemy. Do tej pory pomijałem w broszurach takie marketingowe opisy jak "system rozpoznawania sceny" czy "3D  Color Matrix II" z Nikona D3, bo to ładnie wygląda na opakowaniu a spece od marketingu muszą mieć o czym gadać. Jednak wychodzi że SRS ( scene recognition system) nie wziął się z palca jako marketingowy chwyt a jest w tym trochę na rzeczy.

Taki D3, w nim sensor pomiaru światła ma 1005 punktów. Łopatologicznie do tego podchodząc można założyć że obiektyw rzuca obraz na lustro i rzuca go też na taki 1005 punktowy sensor który mniej więcej widzi świat w odcieniach i kolorach. Malutki układ scalony ze światłoczułkami, plus minus 25 kwadracików wysoki 40 szeroki robił całą robotę, mierzył jak w klatce było jasno, gdzie było ciemno. Na podstawie takiego obrazka aparat oceniał ekspozycję zdjęcia i mierzył światło i kolory. Wtedy jak o tym czytałem to myślałem o tym po prostu jak o zaawansowanym czujniku ekspozycji. Nie nazwałbym tego co taki sensor rejestrował, widzeniem. Nikon D4 mnie ominął, nawet nie pamiętam czy zarejestrowałem jego premierę rynkową i tak naprawdę nic o tym aparacie nie wiem, oprócz tego że punktów na sensorze RGB ma już 91 tysięcy.  W przypadku D5, sensor RGB ma już nagle 180 tysięcy punktów czułych na kolor i światło. Taki sensor widzi już całkiem dużo. Mamy też dedykowany procesor który widzianą scenę analizuje pod kątem rodzaju światła, kolorów.  Zaczął rozpoznawać twarz, ruch, umie przygotować się na łapanie ostrości zanim obiekt znajdzie się pod danym punktem AF. Posiłkuje się też samym sensorem uwieczniającym zdjęcie.

No ale do czego zmierzam, samochody które same się prowadzą już są rzeczywistością. W czasie rzeczywistym przetwarzają obraz z kamery by bezkolizyjnie prowadzić pojazd. Sterują oświetleniem pojazdu by nie oślepiać jadących z naprzeciwka. Przewidują to co dzieje się na drodze. Jeżeli chodzi o zdjęcia, obecnie to fotograf ma pełną kontrolę a system jedynie wpływa na jak najlepsze odwzorowanie kolorów, na jak najbardziej spektakularne uwiecznienie światła na danej scenie. Na razie ta technologia robi to do czego została stworzona, mierzy światło i dba by kolory były odpowiednio soczyste i takie jak być powinne, ale co będzie jak aparat zacznie oceniać kompozycje klatki? Gdy oprócz natężenia kontrastu, koloru, ekspozycji będzie jeszcze się wymądrzał na temat spirali Fibonaciego przy kadrowaniu a w wizjerze będziemy jedynie widzieli strzałki kierujące tak byś mógł lepiej komponować klatkę? Co jeśli matematycznie będzie przeliczał na ile dana klatka jest udana a na ile nie? Oczywiście pierwszy raz takie coś pewnie wejdzie do amatorskich aparatów bo tam wpłynie to na sprzedaż. Już widzę te hasła, wymierz obiektywem gdziekolwiek a Twój Nikon podpowie kompozycję, poczeka z wyzwoleniem migawki aż wszyscy się uśmiechną i będą mieli otwarte oczy. To takie błahostki które w sumie już teraz są bo detekcja twarzy uśmiechu czy oczu już funkcjonuję.  A co jak przy robieniu zdjęcia sztuczne AI powie:

Just sayin...