artykuły

Nokia 808 PureView – pierwsze spotkanie

Jeszcze smartfon czy już aparat?

67
26 kwietnia 2012, 09:37 Mieszko Krzykowski

Technikalia

Przepis Nokii na wysoką jakość zdjęć jest następujący. Pierwszym jest matryca. Wrażenie robi nie tylko jej maksymalna rozdzielczość (41 megapikseli), ale także rozmiary. Już Nokia N8 wyróżniała się pod tym względem na tle innych smartfonów, a w 808 PureView ten element jeszcze bardziej powiększono. Ma on teraz 10,67 mm × 8 mm (85,33 mm2). Dla porównania: typowa matryca aparatu w smartfonie ma mniej więcej 6 mm szerokości i 5 mm wysokości. W aparacie kompaktowym często jest to 6,16 mm × 4,62 mm (28,5 mm2). W aparacie kompaktowym dobrej klasy jest ona większa: ma mniej więcej 7,6 mm × 5,7 mm (43,3 mm2), a w wyróżniającym się pod tym względem Fuji X-10 – 8,8 mm × 6,6 mm (58,1 mm2). Krótko mówiąc, Nokia 808 PureView ma matrycę większą niż jakikolwiek „kompakt” dostępny na rynku i kilka razy większą niż jakikolwiek inny smartfon. Dopiero tak zwane bezlusterkowce mogą się pochwalić większą powierzchnią elementu światłoczułego (na przykład matryca Nikona 1 ma 116 mm2, czyli różnica wynosi 26%). Wszystko to dlatego, że piksele muszą być odpowiednio duże, bo w praktyce często występuje dość prosta zależność: im piksel większy, tym lepsza jego jakość (jest to spore uogólnienie, lecz nie jest ono dalekie od prawdy). Ale, ale... skoro punktów matrycy jest tak dużo, to nawet przy takiej powierzchni pojedyncze piksele wcale nie należą do największych. Czy chodzi więc tylko o magię liczb? Tutaj dochodzi do głosu technika PureView.

Po pierwsze, trzeba wspomnieć o tym, że zdjęcia mogą mieć maksymalną rozdzielczość 38 megapikseli przy proporcjach obrazu 4 : 3 lub 34 megapiksele, gdy wynoszą one 16 : 9. Wynika to ze specyficznego sposobu wykorzystania powierzchni czujnika, który pojawił się już w Nokii N8. W przypadku większości smartfonów tryb panoramiczny osiąga się przez odcięcie górnej i dolnej części zdjęcia, co wcale nie zapewnia szerszej perspektywy. Tutaj jest trochę inaczej: w zależności od wybranego współczynnika analizowana jest inna część matrycy, dzięki czemu faktycznie w trybie 16 : 9 zyskuje się kilka dodatkowych stopni, lecz to oznacza, że część pikseli nigdy nie jest wykorzystywana. Ale to nie wszystko, do czego było potrzebne aż 41 milionów punktów.

Najważniejszym powodem była chęć użycia nadpróbkowania pikseli. Ma to umożliwić jak najlepszą jakość zdjęć o ostatecznej rozdzielczości 8, 5 lub 2 megapikseli (ze wskazaniem na tę środkową wartość jako złoty środek dla tej techniki).

Dlaczego tylko tyle? Bo w praktyce mało kto potrzebuje więcej niż 10 megapikseli, a im większa rozdzielczość zdjęcia, tym więcej miejsca ono zajmuje i tym trudniej wysłać je jako załącznik czy na profil w portalu społecznościowym. W większości zastosowań 8 czy 5 megapikseli zupełnie wystarcza do tego, aby oglądać zdjęcia na ekranie telewizora czy komputera albo drukować je w formacie mniejszym niż A4. Ale jak i po co z tych 38 milionów pikseli powstaje dużo mniejszy obrazek? W dużym skrócie: z kilku sąsiadujących ze sobą pikseli jest tworzony jeden „większy”. Lecz nie jest to proste uśrednianie informacji, jak w przypadku pomniejszania zdjęć w programie graficznym. Żeby to lepiej zrozumieć, trzeba się przyjrzeć budowie matrycy aparatu cyfrowego. Nie mówi się o tym często, ale jeśli jakiś sensor ma rozdzielczość 8 megapikseli, to w praktyce najczęściej jest on zbudowany z siatki 4 mln pikseli zielonych, 2 mln czerwonych i 2 mln niebieskich (wyjątkiem są tutaj matryce Foveon stosowane w aparatach marki Sigma, ale nie są one zbyt popularne). Wynika to z tego, że pojedynczy element matrycy nie „odróżnia” koloru, a jedynie natężenie docierającego do niego światła. Aby reagowały one na konkretne barwy, montuje się nad nimi kolorowy filtr – najczęściej jest to filtr Bayera (wyjątkiem są tutaj aparaty Fuji), który wygląda mniej więcej tak:

Źródło: Wikipedia

Ale przecież zdjęcie z aparatu po przybliżeniu wcale nie składa się z siatki czerwonych, niebieskich i zielonych punktów. Jak to się dzieje? Dla każdego z tych jednokolorowych pikseli wartość pozostałych barw jest interpolowana na podstawie ich otoczenia i w ten sposób powstaje końcowy obraz. Nokia 808 również korzysta z filtru Bayera, ale ponieważ przy tworzeniu ostatecznego zdjęcia są brane pod uwagę klastry pikseli różnych kolorów, to prawie w ogóle nie trzeba stosować żadnych przybliżeń, dzięki czemu określenie właściwej barwy nadpróbkowanego piksela może być bardziej precyzyjne.

Na dodatek takie rozwiązanie pozwala zmniejszyć szumy. Im mniejszy rozmiar piksela i im większa jego czułość, tym większa jego niedokładność i szansa, że pojawi się na nim jakaś losowa wartość niemająca nic wspólnego z rzeczywistością, co oznacza większe szumy na zdjęciach. Ponieważ w PureView branych jest pod uwagę kilka pikseli, to jest możliwe lepsze wychwycenie miejsc, w których zaczynają występować niepożądane zjawiska. Już samo uśrednienie informacji pozwala zredukować szumy, tak jak pomaga w tym pomniejszenie zdjęcia w programie graficznym. Ale tutaj algorytm jest trochę sprytniejszy i umie analizować, który piksel różni się zbyt mocno od pozostałych – wtedy przypisuje mu mniejszą wagę, a który wygląda na zawierający bardziej precyzyjne dane – ten otrzymuje lepszą ocenę. Nie jest to pixel binning, czyli wybieranie „najlepszych” punktów, ale trochę bardziej „inteligentne” i zaawansowane liczenie średniej. Efekt? Widzieliśmy kilka przykładowych zdjęć i filmów wykonanych w bardzo słabych warunkach oświetleniowych i szumy w nich były naprawdę małe (szczególnie w przypadku wideo Full HD i HD). Moglibyśmy się nawet pokusić o stwierdzenie, że mniejsze niż w jakimkolwiek aparacie kompaktowym, choć ostateczny werdykt wydamy, gdy będziemy mogli dokładnie to sprawdzić.

Przy okazji ten wywód o filtrze Bayera i uśrednianiu tłumaczy, dlaczego Nokia zaleca korzystanie z trybu 5-megapikselowego i dlaczego to właśnie on jest domyślnie aktywny. W przypadku 8-megapikselowych zdjęć końcowy piksel powstaje z czterech mniejszych: dwóch zielonych, jednego czerwonego i jednego niebieskiego. Umożliwia to zwiększenie precyzji i jakości odwzorowania zieleni, ale z pozostałymi kolorami jest problem. W 5-megapikselowych zdjęciach wykorzystywane są grupy ośmiu punktów: czterech zielonych, dwóch niebieskich i dwóch czerwonych. W takiej sytuacji już trochę łatwiej coś uśrednić ;)

Ale tutaj znowu powstaje pewna wątpliwość. Nie można było po prostu stworzyć sensora tych samych rozmiarów co w Nokii 808, ale o „standardowej” rozdzielczości 5 megapikseli? Powinno to zapewnić naprawdę dobrą jakość obrazu i niski poziom szumów bez dodatkowych obliczeń. Nie wiemy, czy wyglądałoby to lepiej czy gorzej (mamy wrażenie, że dość podobnie), ale za PureView i tymi wszystkimi megapikselami stoi jeszcze chęć zapewnienia użytecznego zoomu cyfrowego. Chyba wszyscy wiedzą, że zoom cyfrowy w większości aparatów to zło konieczne, które mocno obniża jakość zdjęć. W przypadku Nokii 808 działa to trochę inaczej, bo gdy obraz jest przybliżany, w użyciu jest coraz mniejsza powierzchnia sensora, przez co zmienia się stopień nadpróbkowania. W maksymalnym przybliżeniu nadpróbkowanie przestaje być wykorzystywane i do akcji wkraczają pojedyncze punkty matrycy, czyli do uzyskania 5-megapikselowego zdjęcia stosuje się... 5 mln pikseli zamiast 38 mln.

Jest to pewne „marnotrawstwo”, ale w tym przypadku można sobie na nie pozwolić. Teoria i zapewnienia Nokii sugerują, że jest to pierwszy bezstratny zoom cyfrowy. Praktyka mówi nam, że spadek jakości obrazu jest wyraźny. Gdy malutkie piksele matrycy Nokii 808 muszą sobie radzić bez „kolegów”, widać, że wcale nie radzą sobie tak dobrze: nawet w dobrym oświetleniu jest widoczna spora ilość szumu. Mimo to wygląda to sporo lepiej niż w innych smartfonach; tego zoomu cyfrowego można używać bez zgrzytania zębami.

2