Spis treści:

Strona 1:

  • Wstęp
  • CRT i LCD – czy kiedyś było lepiej?
  • Charakterystyka  monitorów fotograficznych
  • Czy warto inwestować w dobry monitor?
  • Monitor dla fotografa
  • Zalety monitorów 4K/UHD w fotografii
  • W jaki sposób producenci mogą „oszukiwać”?
  • Kalibracja
  • Karta graficzna

Strona 2:

  • Lista monitorów do fotografii – HD i QHD
  • Lista monitorów do fotografii – UHD i 4K
  • Monitory Apple w fotografii
  • Co kupić jako ekran pomocniczy
  • Monitory używane
  • Podsumowanie

Najepsze monitory w swojej klasie cenowej

Jest wiele dobrych monitorów, ale tylko pojedyncze modele deklasują konkurencję pod względem stosunku jakości do ceny. Podaj maila, a wyślę ci ich listę, razem z wyjaśnieniem, dlaczego właśnie te są tak bardzo warte uwagi:

Ostatnia aktualizacja: 29 lutego 2024: Rozpocząłem wielką aktualizację tego wpisu. Pierwsza strona jest już wstępnie zaktualizowana, chciaż pewnie naniosę jeszcze poprawki. Drugą stronę, tę z listą modeli nadających się do obróbki zdjęć, zaktualizuję w marcu 2024. Natomiast już wcześniej wiele modeli zostało wykreślonych z tej listy, ze względu za zakończenie produkcji.

Monitor do obróbki zdjęć, a zwykły ekran biurowy czy domowy, to zupełnie różne konstrukcje. Postaram się wyjaśnić czym jest monitor fotograficzny, dlaczego nie znajdziecie ani jednego takiego w ofertach większości producentów oraz jakie modele sprawdzą się przy obróbce zdjęć. Jest to dość długa lektura, ale tego tematu nie da się streścić. Poza tym tekście znajdziesz także listę wszystkich monitorów, nadających się do retuszu, razem z informacjami o różnicach pomiędzy nimi.

Jeśli kiedykolwiek zamierzasz kupić monitor do obróbki zdjęć, to poniższy tekst może okazać się bardzo pomocny. Jeśli uważasz, że nie potrzebujesz takiego monitora, a zajmujesz się fotografią, to tym bardziej powinieneś przeczytać…

Przy każdym monitorze dodałem linki afiliacyjne, a później dołożyłem jeszcze porównywarki cenowe.

CRT i LCD – czy kiedyś było lepiej?

CRT vs. LCD
W czasach ekranów kineskopowych, czyli tych wielkich, ciężkich, a jednocześnie o małych przekątnych (15″ było standardem, a 21″ uznawano za bardzo duży), można było kupić dobry monitor, za naprawdę niewielką kwotę. Wybór był spory, bo ten sam model, który nadawał się do grafiki i fotografii, spisywał się dobrze także w grach i generalnie w większości zastosowań. Jednak pomijając gry, a skupiając się na pracy, były to świetne monitory jedynie wg. ówczesnych wymogów. O takim szerokim gamucie jaki mamy obecnie, można było pomarzyć, robienie proofów było znacznie bardziej ograniczone (CMYK? Nie ma mowy…), a proporcje 4:3 uniemożliwiały wygodną pracę na 1 ekranie. Poza tym używanie CRT było znacznie potwornie drogie w porównaniu do LCD na podświetleniu LED, ze względu na prądo-żerność. Jednak LCD początkowo były kiepskie i dopiero po latach dopracowywania technologii, stały się lepsze. W dodatku kupując pierwszy lepszy ekran, najpewniej trafi się na totalny szmelc, przy którym CRT faktycznie może wydawać się okay. Mało osób pracuje na naprawdę dobrych monitorach. Przez lata wynikało to z wysokiej ceny, natomiast teraz myślę, że głównie z niewiedzy o tym, co warto kupić, a czego unikać.

LCD szczególnie początkowo, miały wad co niemiara. Rozróżniało się 4 główne typy matryc: TN, IPS, VA i PVA. Najtańsze ekrany były oparte o TN, które bardzo kiepsko radzą sobie z kolorami, a kąty widzenia mają wręcz tragiczne. Za to nie występują w nich widoczne opóźnienia podczas wyświetlania szybkiej akcji, więc nieźle sprawdzały się w grach. Do dzisiaj większość monitorów i niemal wszystkie ekrany laptopów są oparte o TN. Z VA popularna swego czasu była MVA – to coś w rodzaju połączenia TN z IPS, ale została wyparta przez nowsze generacje TN i w zasadzie od dawna już się jej nie używa. Lepsze konstrukcje korzystały z matryc PVA i IPS. W tej pierwszej nieco zmieniały się odcienie podczas patrzenia pod kątem (głównie szarości i czerń). Za to w IPS czerń nigdy nie była „prawdziwie czarna”, w dodatku srebrzyła jeśli oświetlenie w pomieszczeniu nie było odpowiednio mocne. Kolejnym minusem IPS-ów było to, że obraz nie wyglądał klarownie – sprawiał wrażenie „szorstkiego” (można było zauważyć linie między pixelami, biel sprawia przez to wrażenie nieco brudnej). W obu przypadkach opóźnienia były dużo większe niż w TN. Jedną z poprzednich wersji IPS było E-IPS, jednak nie mylcie jej z e-IPS. Ta ostatnia to wersja niskobudżetowa montowana w tańszych konstrukcjach. Najnowsza generacja IPS nosi nazwę AH-IPS, jest też zbliżona do niej równie dobra matryca PLS.

Do wad LCD, które już wymieniłem, dochodziły jeszcze inne dość poważne. Po pierwsze każdy LCD miał swoją natywną rozdzielczość – w niemal każdej innej obraz był dużo gorszy. Po drugie na matrycy mogły wystąpić martwe pixele, czego w CRT nie było. To tylko te zupełnie podstawowe problemy, których jednak nie miały monitory kineskopowe. Z biegiem czasu udało się załagodzić niektóre mankamenty, a nawet całkowicie wyeliminować, jednak początki były ciężkie, a tanie monitory do dzisiaj są kiepskie. W efekcie powstało wiele kategorii monitorów, opartych o różne matryce. Dla graczy liczyła się głównie szybkość, praca biurowa miała nie męczyć wzroku i być możliwa przy wielogodzinnym używaniu w świetle 300 luxów (tyle jest wymagane przez przepisy BHP, więc podświetlenie wielu monitorów było za mocne do warunków domowych, nawet przy ustawieniu go na minimum). Natomiast fotograf miał mieć m.in. świetną równomierność i jak najlepsze odwzorowanie barw w przestrzeni AdobeRGB, a to wszystko wymagało opracowania zaawansowanych rozwiązań.

Finał był taki, że robienie dobrych monitorów nie było zbyt opłacalne i niemal żadna firma nie zdecydowała się pójść w ich kierunku. Zamiast tego masowo produkowano szrot. Standardowy odbiorca się na to godził – w zamian miał cienki, lekki i energooszczędny monitor. Niestety fotografowie, graficy i designerzy nie byli w stanie na czymś takim pracować, więc wciąż siedzieli na CRT.

Jednak dwie firmy (Eizo i NEC) postanowiły tworzyć monitory do zastosowań profesjonalnych, a także takie dla bardziej wymagających amatorów. W zasadzie na początku swoich sił próbowało kilku producentów, ale tylko tych dwóch przetrwało. Niestety opracowywanie odpowiednich rozwiązań pochłaniało ogromne pieniądze, co przekładało się na cenę samego produktu. Był okres kiedy fotograficzne LCD potrafiły kosztować ponad 20 000 zł… Na szczęście te czasy mamy już za sobą (obecnie monitor fotograficzny 4k potrafi tyle kosztować :)).

O ile w marketach wciąż sprzedaje się fatalnej jakości ekrany dla mas, to monitory fotograficzne zostały bardzo dopracowane i są znacznie lepsze niż te, którymi dysponowaliśmy w czasach CRT. Przekątna ekranu drastycznie wzrosła, a razem z nią rozdzielczość. Zmieniły się też proporcje ekranu na panoramiczne, co jest zdecydowanie praktyczniejsze przy pracy z wieloma paletami. To akurat są w stanie oferować wszystkie firmy, jednak przy retuszu ogromne znaczenie mają też inne rzeczy, którymi tylko Eizo i NEC się przejmują. Inni producenci starają się coś działać na polu dla profesjonalistów, niestety przede wszystkim marketingowo. Powstają więc monitory typu Dell u2413, które są lepsze niż typowe marketówki, ale nie mają nic wspólnego z zastosowaniami fotograficznymi. Co gorsza modele o tym samym oznaczeniu, mogą być w rzeczywistości innymi monitorami, produkowanymi przez różne fabryki i mającymi różne parametry. Niestety takie monitory są często polecane na forach internetowych przez osoby, które nigdy nie pracowały na prawdziwym monitorze fotograficznym. Tworzy się przez to wiele mitów i późniejszych frustracji, kiedy okazuje się, że monitor kompletnie nie spełnia swojej roli.

Monitory fotograficzne

Monitory fotograficzne wyświetlają gamut zbliżony do AdobeRGB (czyli kolory mogą mieć dużo większe nasycenie – takie, które da się uzyskać na wydrukach). Przydaje się to zdjęciach wykonywanych w barwnych lokacjach, fotografii przyrody, czy chociażby w pstrykach z iPhone, które mają porównywalną przestrzeń P3. W monitorach kalibrowanych sprzętowo można zmniejszyć gamut jeśli zajdzie taka potrzeba. Gamut nie jest zależny od tego jaka matryca została zastosowana, ale jak ją podświetlono. PR-owcy kuszą nas różnymi cyferkami, spokojnie można je wszystkie zignorować. Co z tego że niektóre modele szczycą się szerokim gamutem, skoro nijak ma się on do AdobeRGB, którego używa się przy pracy ze zdjęciami?

Dawniej duże znaczenie miało to, że podświetlenie GB-r LED i W-LED z czerwonym oraz zielonym luminoforem, poza tym, że daje nam szeroki gamut, to jest też znacznie lepsze dla oczu niż najtańsze LEDy (niebieskie diody z żółtym luminoforem). Monitory z takim kiepskim podświetleniem podświetleniem często wpadają w zimne barwy i mogą być męczące dla wzroku. Zdarza się też, że podświetlenie na diodach migocze (szczególnie przy niskiej jaskrawości – ma to związek z częstotliwością PWM). Niektórzy to widzą od razu, inni w ogóle. W czasach świetlówek nie było to problematyczne, jednak obecnie wszędzie wstawia się diody, co przy sprzęcie projektowanym przez dział finansowy, ciągnie za sobą problemy. Monitory które znajdziecie w moim zestawieniu, nie mają takich mankamentów i generalnie dzisiaj już jest coraz mniej tak problematycznych modeli.

Podświetlenie w monitorze fotograficznym musi być jak najbardziej równomierne – nie może istnieć sytuacja, w której niektóre fragmenty ekranu świecą mocniej, a inne słabiej (a tak jest w bardzo wielu monitorach). Przecież na podstawie tego co się widzi, wprowadzane są korekty; m.in. właśnie jasności. To samo tyczy się równomierności punktu bieli – jeśli retuszuję zdjęcie beauty, a lewy dolny fragment ekranu oddaje barwy cieplej niż lewy górny, to będę chciał to skorygować i w efekcie tylko pogorszę sprawę. Mam wrażenie że dzisiaj to właśnie równomierność ekranu jest tym co najbardziej wyróżnia dobre monitory graficzne od innych.

Wyświetlanie dwóch zdjęć obok siebie nie ma wtedy sensu. Zoomując fotografię można całkiem zgłupieć. A teraz wyobraźcie sobie, że studio graficzne lub retuszerskie pracuje na takich monitorach i pracownicy wymieniają się między sobą projektami… Albo bardziej przyziemna sytuacja – obrobiłem zdjęcie i zaczynam drugie z tej samej serii, więc wyświetlam sobie je obok tego już skończonego i wprowadzam poprawki. Zamieniam zdjęcia miejscami (to które było po lewej, jest teraz z prawej i odwrotnie) – na monitorze fotograficznym zdjęcia wyglądają wciąż identycznie jak przed chwilą, jednak na monitorze amatorskim już nie jest tak samo. To przez wspomniane nierównomierności. Mnie to doprowadzało do szału i było ostatecznym powodem ku przesiadce na dobry monitor.

Odwzorowanie kolorów
Dam tutaj taki przykład – kalibrujesz standardowy monitor i fotograficzny. Stawiasz je obok siebie z uruchomionym tym samym obrazem, jednak na obu wygląda on inaczej – kolory wpadają w inne odcienie, kontrast jest różny, a na tym tańszym nie dość że nasycenie kolorów jest mniejsze, to próżno szukać łagodnych przejść tonalnych i delikatnych plam na skórze modelki. W dodatku przesuwając portret po ekranie, kolor cery zmienia się w zależności od miejsca, w którym zdjęcie jest w danej chwili. Jakby tego było mało, to fotografie czarno-białe dostają dziwnych zafarbów. W uproszczeniu można powiedzieć, że obrabiając na czymś takim zdjęcie, po prostu nie do końca wiadomo co się robi – to co ogląda użytkownik jest dalekie od stanu faktycznego. Pamiętajcie też, że nie chodzi o to, żeby zdjęcie wyglądało „fajnie”, tylko tak jak rzeczywiście wygląda.

Patrząc teraz na swoje zdjęcia z przeszłości, widzę jak wiele niedociągnięć mają. Nie dość, że jasność, kolor skóry i kontrast są źle dobrane, to jest też pełno żółtych, czerwonych i zielonych zafarbów na skórze, których moje wcześniejsze ekrany po prostu nie były w stanie pokazać. Na wydrukach wszystko to będzie widoczne (nie mylcie wydruków z odbitkami z minilabów – te drugie mają fatalną jakość w porównaniu do tego, co można uzyskać drukując).  Dzisiaj przeciętny monitor za kilka tysięcy złotych nie jest już złomem niepotrafiącym poprawnie wyświetlić obrazu, natomiast rozrzut jakościowy wciąż jest spory i to także jeśli mowa o różnych egzemplarzach jednego modelu. W monitorach graficzne te różnice są znacznie mniejsze, chociaż w tańszych modelach też się zdarzają.

Czy warto inwestować w dobry monitor?

Oczywiście że warto, aczkolwiek to trochę jak z telewizorami – jednej osobie wystarczy LCD z czernią koloru szarego, gdzie obraz będzie pozbawiony jakichkolwiek szczegółów i całość będzie się składała z większych bądź mniejszych plam, a ktoś inny wybierze skalibrowaną plazmę, ze znakomitą czernią i obrazem pełnym detalu. Nie musze chyba mówić, że jak się filmy także robi, a nie tylko ogląda, to niewidzenie tych detali będzie ogromnym problemem. Podobnie jest w fotografii.

Ja sam uważałem kiedyś, że topowe IPS-y i PVA takich firm jak Dell czy LG, są dobre do zdjęć. Teraz wiem, że po prostu moja wiedza była na żenującym poziomie i nie miałem pojęcia ile tracę, oraz jak mało detali widzę w porównaniu do tego, ile mógłbym zobaczyć na lepszym sprzęcie. Nie mówiąc o tym, że finalnie zdjęcie wyglądało zupełnie inaczej niż powinno. Gdy w moje ręce trafił magazyn z sesją, którą retuszowałem na Dellu 2408, to byłem bliski stanowi przedzawałowemu. Oczywiście później, mając lepszy monitor, musiałem wszystkie zdjęcia ze swojego portfolio obrobić ponownie. To coś takiego, do czego każdy sam musi dojść w swoim tempie, podobnie jak z samym robieniem zdjęć. Jedni zostaną przy robieniu ślubów kitem, inni postanowią się rozwijać, robić coraz lepsze zdjęcia i uderzać w bardziej wymagających klientów i wielokrotnie wyższe stawki, ale raczej będą do tego potrzebowali lepszych obiektywów.

W jaki sposób producenci mogą “oszukiwać”?

Certyfikaty, zapewnienia o równomierności itd.
Zdarza się, że jakaś firma chwali się świetną równomiernością, niskimi deltami itd. To wszystko mimo braku elektroniki, która byłaby to w stanie zapewnić. Czasami nawet są dołączane specjalne certyfikaty mające potwierdzić te parametry. Późniejsze użytkowanie takiego monitora kompletnie zaprzecza zapewnieniom producenta, a kalibrator wskazuje całkowicie inne wyniki niż certyfikat. Producent kłamał? Oczywiście że nie. Haczyk tkwi w metodologii testów, która nie jest udostępniona. Testy można przeprowadzać na dowolne sposoby, chociażby mierząc równomierność ekranu na siatce, która wszystkie pola będzie miała w pobliżu centrum ekranu, zamiast, sięgać niemal krawędzi. Certyfikat zawiera prawdziwe dane? Tak. Wypada znakomicie marketingowo? Bez dwóch zdań – wystarczy poczytać fora. Jakie ma to przełożenie na jakość? Zerowe. Eizo i Nec udostępniają pełną specyfikację testów i są one robione tak, by faktycznie przedstawić jakość monitora, dlatego wyniki certyfikatów pokrywają się z pomiarami użytkowników.

Jako inny przykład podam Della U3219Q, który służy mi jako dodatkowy, boczny monitor, do celów niezwiązanych z fotografią. Co z tego, że ma korekcję nierównomierności ekranu, z którą został pomierzony do wystawienia certyfikatu, skoro ta funkcja wyłącza się, gdy podczas profilowania zmienię ustawienia RGB? Natomiast z pseudo-sprzętowej kalibracji Dell wycofał się już lata temu. A mowa nie o jakimś tanim modelu, bo za 4000 zł. I tak powinienem się cieszyć, bo to wciąż lepszy sprzęt niż jego odpowiednik w BenQ i innych popularnych marek, natomiast, u Neca w tej cenie miałbym o kilka klas lepszy sprzęt, ale niestety mniejszy, a potrzebowałem rozmiaru takiego jaki ma mój główny ekran, do celów niezwiązanych z fotografią.

Gamut sRGB 100%, 99% Adobe RGB 4K itd.
Najczęściej to właśnie powyższymi oznaczeniami marketingowcy starają się przyciągnąć klientów. Co gorsza… skutecznie. Informacja typu “wyświetlacz 70% sRGB” świadczy o tym, że jest fatalnie, bo nawet jeśli odzwierciedlenie kolorów będzie znakomite, to tylko w tym niewielkim zakresie, który nie obejmuje całej kolorystyki jakiej nam potrzeba. Natomiast info o 100% sRGB nie jest żadną wskazówką mówiącą o tym, czy warto taki ekran kupić, ponieważ może oznaczać, że monitor oddaje idealnie tę przestrzeń barwną, ale może też mówić, że ma gamut tej samej wielkości/objętości, a wciąż będzie pokrywał 70% tego co ma w sobie bryła sRGB. Czy wtedy będzie to miało jakiekolwiek przełożenie na jakość wyświetlacza? Nie – najgorszy monitor jaki istnieje może być opisany jako 100% albo 120% sRGB, a odzwierciedlenie kolorów może być tak tragiczne, że nie będzie się dało przeglądać Facebooka, a co dopiero obrabiać zdjęć. Gamut wielkości Adobe RGB wcale nie musi być tym samym co przestrzeń barwna Adobe RGB. Wystarczy że ich bryły 3D będą miały podobną objętość i już można pisać coś w rodzaju 98% Adobe RGB, czy nawet 120%, bo i takie przypadki się zdarzały. Dlatego informacje z broszur reklamowych, które później są powielane w wielu newsach i co gorsza, w wielu testach, nic nie znaczą. Podobnie jak pomiary w recenzjach, wykonywane kalibratorem nienadającym się do faktycznej kalibracji (np. wiele redakcji używa o zgrozo, Spyderów, ale o kalibracji rozpiszę się dokładniej później).

Zresztą szeroki gamut to zupełnie ostatnia rzecz, na którą należy zwracać uwagę. Do większości zastosowań wystarczy dobrze odwzorowane sRGB, a szersza przestrzeń ma znacznie dopiero, gdy cała reszta parametrów jest jak najplepsza. Przez lata na szczęście to szło w parze i szeroki gamut był dopiero w nieco bardziej zaawanasowanych modelach, a tych profesjonalnych w ogóle już nie ma bez szerokiego gamutu, aczkolwiek dziś i słabe monitory gamingowe mają szerokie gamuty. Jeszcze więcej zamieszania jest w wyświetlaczach laptopów, które nawet nie spełniając podstawowych wymagań stawianych ekranom do zdjęć, potrafią mieć szeroki gamut. Niestety myślenie, że szeroki gamut = dobry ekran, wciąż czasem się zdarza, mimo że nie ma nic wspólnego z rzeczywistością.

4K to ogromna zaleta w zewnętrznych, dużych ekranach, ale w małych nie daje przewagi np. nad Retiną. Sama rozdzielczość nie przekłada się też w żaden sposób na jakość reprodukcji kolorów itd. O głupotach z reklam jak np. kontrast 4 000 000 : 1  tutaj nawet nie wspomniałem, bo na to chyba już nikt nawet nie zwraca uwagi.

„Ale i tak większość osób zobaczy moje zdjęcia na tanim monitorze…”

To chyba najpopularniejszy, a zarazem najbardziej bezsensowny argument za tym, że do internetowej obróbki nie potrzeba dobrego ekranu. To wręcz niesamowite jak często pada stwierdzenie, że komuś dobry monitor jest niepotrzebny, bo jego klienci i tak nie widzą różnicy. Pytanie brzmi, czy ta osoba nie ma zamiaru się już w ogóle rozwijać i chce na zawsze pozostać przy obecnym poziomie zdjęć i klientach, dla których jakość nie ma znaczenia, a wyłącznie niska cena usługi? Bo jeśli zamierza to zmienić, to raczej będzie ciężko z takim podejściem – trudno żeby klient wybierał fotografa, który ma mniejsze wymagania co do zdjęć, niż on sam.

Czy studia telewizyjne używają przeciętnych telewizorów, bo takie mają widzowie? NIE. Jeśli retuszuję na porządnym monitorze, który wyświetla mi zdjęcie tak jak faktycznie wygląda, to mam pewność, że jest ono zrobione poprawnie. Jeśli obrobię zdjęcie na jakimś złomie, to każdy użytkownik będzie je widział zupełnie inaczej niż ja, tyle że do jego przekłamań obrazu dojdą jeszcze te, które były po mojej stronie. Jeśli ktoś wierzy, że akurat wszystko nałoży się na siebie tak, że powstanie z tego świetne zdjęcie – no cóż, dla takiej osoby żadne argumenty nie będą przekonujące i zrobienia kariery w retuszu i fotografii bym nie się nie spodziewał.

Poza tym zdjęcie można wyretuszować i zrobić odbitki w minilabie, a można je wydrukować. Różnicę między odbitką, a dobrym wydrukiem zobaczy nawet daltonista, bo wydruk będzie bardziej szczegółowy, nie tylko bez nieplanowanych zafarbów i ze zdecydowanie bardziej nasyconymi kolorami, tam gdzie są one potrzebne, ale też z lepszą rozpiętością tonalną. Jednak żeby wyszło tak jak zaplanowaliśmy, a nie było dziełem przypadku, to trzeba zrobić obróbkę na monitorze fotograficznym, który jest w stanie pokazać, to co wyjdzie z drukarki (a więc monitor o przestrzeni sRGB może nie wystarczyć, bo w druku można uzyskiwać bardziej nasycone kolory). Mając dobry monitor ogranicza się liczbę zmiennych (więcej o tym pisałem w artykule o zarządzaniu barwą).

Największym absurdem jest kupowanie najlepszych obiektywów i oszczędzanie na monitorze. Dochodzi wtedy do sytuacji, w której można wydać tę samą kwotę na polepszenie zdjęć o kilka procent i to tylko w ogromnych wydrukach, lub wejść z nimi na zupełnie nowy poziom w każdych warunkach… i wybiera się opcję pierwszą, czyli obiektyw.

Monitor dla fotografa – jaki wybrać?

Sam fakt posiadania matrycy IPS absolutnie nie oznacza, że monitor nadaje się do fotografii czy grafiki. Matryca, jak dobra by nie była, na nic się nie zda, jeśli nie będzie sterowana równie dobrą elektroniką. Mówienie że „ten monitor będzie dobry, bo ma taką samą matrycę co Nec za 5000 zł” jest bez sensu – nie będzie mu dorównywał pod żadnym względem. Elektronika jest bardzo istotna! Chociażby system DUE, który odpowiada za korygowanie równomierności, daje na prawdę świetne efekty, co można łatwo zobaczyć, gdy go się na chwilę wyłączy przez OSD monitora. Do tego wszystkie czujniki, lepsze podświetlenie itd; Te monitory nie bez powodu są znacznie grubsze od standardowych. Gdzieś tą całą technologię w profesjonalnych monitorach trzeba pomieścić.

Dylematem jest wybór konkretnego modelu. Ja bym radził kupić po prostu najdroższy, a zarazem najlepszy na jaki cię stać. Zastanów się kilka razy, czy to właśnie na nim chcesz oszczędzać – monitor będzie służył bardzo długo. Zmienisz komputer kilka razy (aparat też), a monitor dalej będzie działał świetnie. Właśnie próbuję się doliczyć ile wymian komputerów przeżył mój obecny monitor, ale mam go tak długo, że nie jestem w stanie (4 conajmniej). I jak już wspomniałem, niewiele jest też logiki w kupowaniu obiektywów za 4000 zł i więcej, a oszczędzaniu na monitorze, od którego zależy zdjęcia będą wyglądały finalnie.

Kiedyś producentów monitorów stricte do grafiki i fotografii było więcej, ale zostało dwóch (Eizo i NEC), z czego ten drugi też się powoli wycofuje. To bardzo niszowy i niewdzięczny rynek – niewielu klientów w porównaniu do gamingu, za to z ogromnymi wymaganiami. Robienie takich monitorów jest po prostu słabym biznesem. Lepszym jest robienie zwykłych monitorów, ale reklamowanie ich jako graficzne. Na tej strategii najbardziej polega firma Benq, ale inni też mają modele reklamowane jako graficzne, mimo braku prawdziwej kalibracji sprzętowej, sensownego systemu korygującego nierównomierność ekranu itd.

Lata temu napisałem, że po latach okaże się, czy te pseudo graficzne monitory wciąż trzymają parametry. Niestety wyszło na to, że nawet zupełnie nowe ledwo mogły się mierzyć z tańszym od nich NECem EA275Wmi, czyli monitorem kwalifikowanym jako biurowy, który dziś jest już nieprodukowany i zastąpiony dużo lepszym modelem. O porównaniach z seriami graficznymi Eizo i NEC w zasadzie nie ma mowy, bo to zupełnie inna klasa. Np. oprogramowanie do kalibracji sprzętowej BenQ daje gorsze rezultaty niż skalibrowanie ich programowo i żeby wykonać poprawną kalibrację, trzeba ręcznie podmienić pliki na inne, o czym zwykły użytkownik nigdy w życiu by nie wiedział i nie miałby pojęcia, że po kalibracji jego monitor wcale nie jest rzeczywiście skalibrowany i nie wyświetla obrazu zgodnego z referencyjnym.

Eizo

W roku 2012 Eizo bardzo mocno namieszało na rynku. Kiedy już myślano, że technologia LCD nie pozwoli na żaden znaczący przeskok jakościowy i będzie trzeba czekać na OLED-y żeby nastąpiła jakaś rewolucja, wtedy pojawił się CX240

Postawienie go obok jakiegokolwiek innego ekranu powodowało szczękoopad oglądającego i niedowierzanie w to co widzi. Głęboka czerń, brak srebrzenia, klarowny obraz bez szorstkości charakterystycznej dla IPS-a, szeroki gamut, sprzętowa kalibracja, wbudowany czujnik autokorekcyjny, a do tego satynowa matryca łącząca zalety matowej i błyszczącej, ale bez ich wad. Zdjęcia na nim wyglądają jak wydrukowane. Co więcej monitor ten nie kosztował 15 000 zł, a ok. 5000 (później jeszcze mniej). Recenzenci zgodnie twierdzili, że to rewolucja, a nie ewolucja. Sam byłem z niego bardzo zadowolony, ale kto by nie był? Obecnie seria CX jest już nieprodukowana. W miejsce tego modelu weszły jeszcze lepsze modele, ale jednocześnie znacznie droższe. Obecnie Eizo ewidentnie mocno rozwija się w zastosowaniach filmowych.

Eizo EV to modele do domu i biura, z wszystkimi tego konsekwencjami. Nie nadają się do zastosowań, o które nam chodzi i w ogóle nie uwzględniam ich na liście monitorów, bo w fotografii nie mają żadnych szans z serią EA NECa, która jest w podobnej cenie. Natomiast Foris to coś typowo dla graczy i to raczej tych zawodowych, bo pozostali będą bardziej zadowoleni ze standardowych monitorów (EV, EA itd).

Niestety w ostatnich latach ceny Eizo ponownie dość mocno odbiegają od Neca i dla fotografa z ekonomicznego punktu widzenia już tylko nieliczne modele mają sens . Dlatego Eizo coraz bardziej promuje się w zastosowaniach filmowych, gdzie są naprawdę dobre jak na swoje ceny.

NEC

Następna firma słynąca ze świetnych monitorów do grafiki i zdjęć. Zaletą monitorów tej firmy jest m.in. darmowy program MultiProfiler, który pozwala na coś w stylu bezczujnikowej kalibracji sprzętowej – brzmi niewiarygodnie, ale sprawdza się doskonale. Program na podstawie fabrycznej linearyzacji i danych z wielu wbudowanych czujników, wprowadza zmiany ustawień, utrzymując przy tym prawidłowe odzwierciedlenie kolorów. Początkowo wszyscy zakładali, że gdy taki monitor przepracuje sporo godzin, to po kilku latach w końcu trzeba będzie go skalibrować standardową metodą, jednak praktyka pokazała, że nie dość że nie ma takiej potrzeby, to właściwie lepiej tego nie robić, bo uzyskanie takiej dokładności jak fabryczna, jest absolutnie niemożliwe czujnikami wartymi kilka tysięcy złotych.

Jeszcze w 2014 roku kalibracja sprzętowa była dostępna w Europie jedynie w NEC-ach z serii SV, ale obecnie odpowiednie oprogramowanie jest już osiągalne także w tańszych modelach. Poza tym z jakiegoś powodu, w Polsce można kupić oprogramowanie do kalibracji znacznie taniej niż w innych rejonach świata.

Oznaczenia
W NEC-u wyróżniało się kilka serii monitorów, które sprzętowo są tym samym (PA, SV i SV Reference).  SV i SV Reference spełniały bardziej rygorystyczne normy, a przecież o to właśnie nam chodzi. W monitorach UHD występowała już tylko wersja PA i Reference, są więc dwa modele zamiast trzech, a obecnie ten podział już nie występuje, bo podstawowe wersje monitorów są już na tyle dopracowane, że segregacja przestała mieć sens. Aczkolwiek w Polsce (a później także w kilku innych krajach) pod koniec roku 2016 została wypuszczona seria ColorTuned, do której należały różne modele monitorów. Są nieco droższe, ale mają rozszerzoną gwarancję z 3 do 5 lat i oprogramowanie SpectraView II w zestawie. Dodatkowo ColorTuned są  przed sprzedażą linearyzowane do parametrów najczęściej używanych w fotografii (jasność 80 cd/m2, punkt bieli D65, Gamma 2,2). Jednak nowsze modele okazały się na tyle równe, że seria Color Tuned również straciła sens i zamiast tego, dziś po prostu najpopularniejsze modele są kalibrowane przez sprzedażą.

Niestety w wielu segmentach cenowych NEC nie ma modeli konkurencyjnych do Eizo, np. szerokogamutowego monitora o wysokiej rozdzielczości i 27″. W efekcie oferta obu firm bardziej się uzupełnia, niż ze sobą konkuruje.

W okolicach 2015 roku, ze względu na uproszczenie produkcji, NEC zaczął montować część zaawansowanej elektroniki z monitorów graficznych, także w wersjach biurowych, przez co ich możliwości poszybowały bardzo mocno w górę. Dlatego na mojej liście polecanych monitorów pojawiły się niektóre z serii EA. Poza tym NEC ma niesamowicie udane monitory UHD, ale po tym jak Panasonic przestał produkować swoje niesamowicie dobre matryce, oferta NECa również się uszczupliła.

Zalety monitorów UHD i 4K w fotografii

Monitory 4K, czyli te o znacznie wyższej rozdzielczości (ekran UHD ma 4 razy więcej pikseli niż FHD). Jednak przez długi czas monitory UHD nie zastąpią obecnych modeli, tylko będą sprzedawane jako osobne linie produktów, a ich ceny będą znacznie wyższe niż odpowiednika o normalnej rozdzielczości. Każdy monitor z poniższej listy jest MST, ale może być też podpięty jako SST (co to znaczy opisałem szerzej w akapicie dotyczącym kart graficznych).

Na powyższej grafice przedstawiłem porównanie przestrzeni roboczych w poszczególnych rozdzielczościach. Na jednym ekranie UHD mieści się tyle pikseli, co na 4 standardowych monitorach w formacie 16:9 (czyli np. na czterech Eizo CS230). Natomiast na poniższym zrzucie ekranu możecie zobaczyć jak wygląda u mnie Photoshop w UHD:

Kilka lat temu nagrałem film o moich doświadczeniach z pracą na monitorach 4K/UHD. Wciąż w 100% wszystko w nim jest aktualne:

KALIBRACJA

W zależności od modelu, monitor może być kalibrowany sprzętowo lub programowo. W obu przypadkach będzie potrzebny kalibrator (kolorymetr lub spektrofotometr). Niektóre monitory mają odpowiedni sprzęt wbudowany, ale większość wymaga zewnętrznego czujnika.

Kalibracja sprzętowa i programowa
Kalibracja sprzętowa występuje w tych bardziej profesjonalnych monitorach i jest znacznie lepsza, bo wszystkie zmiany są wprowadzane w LUT monitora. Dzięki temu zyskujemy poprawne odzwierciedlenie kolorów, nie tracąc nic przy okazji. Natomiast przy kalibracji programowej zmiany są wprowadzane w LUT karty graficznej. Oznacza to, że jeśli coś odstaje od normy, to nie da się tego bezstratnie skorygować i jest wycinane. Z tego powodu przejścia tonalne nie są już tak płynne. Czym gorszy monitor, tym więcej się traci. Co więcej, niektórzy producenci uznają jako kalibrację sprzętową już samą możliwość zmiany mocy podświetlenia, (co jest dostępne w każdym monitorze), wag RGB czy innych podstawowych parametrów. To kolejny powód żeby nie przejmować się tym, co jest napisane w ulotkach.

Podstawy i pierwsza kalibracja
Najtańszym kalibratorem nadającym się do czegokolwiek był Spyder 4 sprzedawany m.in. jako Easy Pix 2, czyli ten w czarnej obudowie (Spyder3, który był EasyPixem w szarej obudowie, to śmieć nadający się jedynie do recyklingu). Obecnie to już nieprodukowana konstrukcja i używane modele dawno się do niczego nie nadają, szczególnie że nawet na początku były bardzo słabe. Wyszedł nowszy model – Spyder 5, jednak to wciąż kiepski kalibrator i o ile dotykanie nim np. Della czy Samsunga może mieć sens, bo i tak nigdy na nich nie uzyskamy referencyjnego obrazu, najwyżej się do niego minimalnie zbliżymy, to NEC i Eizo należy kalibrować czujnikiem który faktycznie jest w stanie przeprowadzić prawdziwą kalibrację o prawidłowym efekcie końcowym, a nie sprzętem generującym większe błędy niż sam monitor. i1 Display Pro to właściwie jedyny sensowny wybór, bo kosztuje tyle co nic przy bardzo profesjonalnych kalibratorach, a rezultaty kalibracji są na takim poziomie, że każdy będzie zadowolony. Tylko nie można mylić i1 Display Pro z i1 Display 2, który jest do niczego. Później są droższe rozwiązania, ale nie zawsze lepsze. i1 Pro2 jest świetny (i wielokrotnie droższy), ale już ColorMunki (sprzedawany w kilku wersjach) do kalibracji ekranu będzie gorszy niż i1 Display Pro (szczególnie używając natywnego oprogramowania). Kalibruje się zawsze pod konkretne warunki oświetleniowe. O przystosowaniu oświetlenia w pomieszczeniu do retuszu przeczytasz w moim innym artykule (tutaj) – jeśli światło nie będzie odpowiednie, to możecie zapomnieć o poprawnym retuszu.

Trzeba pamiętać żeby nie kalibrować monitora zaraz po jego uruchomieniu – trzeba odczekać trochę, aż się ustabilizuje. W dobrych monitorach obecnej generacji to nawet tylko 3 minuty, w gorszych nawet pół godziny. Kalibracji nie trzeba przeprowadzać samodzielnie. Są ludzie którzy się tym zajmują na zlecenie i na prawdę znają się na swojej robocie. Koszty są bardzo różne, ale zazwyczaj ok. 200 zł. W Krakowie kalibruje Marcin Kałuża (Czornyj), w Katowicach (aczkolwiek dojeżdża do osób w całej Polsce) Adam Jędrysik, a w Gdyni możecie się odezwać w tej sprawie do Graficznych.pl. Postaram się rozszerzyć tę listę w przyszłości.

Kalibracja zdalna (wysyłasz monitor kurierem i otrzymujesz go z powrotem razem z profilami koloru) to opcja, którą lepiej dobrze przemyśleć. Możesz mieć coś namieszane w systemie, mogą pojawić się jakiekolwiek problemy i nawet ich nie zauważysz, a profil nie będzie ładowany poprawnie. Przy kalibracji na miejscu, profesjonalista od razu doprowadzi wszystko do porządku. Ew. można kalibrować wysyłając monitor razem z komputerem, ale ja i tak zawsze będę polecał zrobienie tego tam gdzie komputer będzie używany.

Dobry monitor trzyma parametry przez minimum rok, a ekrany z zewnętrznym czujnikiem autokorekcyjnym (jak Eizo CX240 i wiele nowszych CG) lub z zaawansowanymi czujnikami wewnętrznymi (jak dowolne NEC PA od czasu gdy robią je na LEDach, zamiast  na świetlówkach) powinny prędzej nam się znudzić, niż wymagać grzebania w nich zewnętrznym kalibratorem. Początkowo bezpiecznie zakładało się, że po 2-3 latach będzie się robić rekalibrację, jednak wychodzi na to, że po tym czasie wciąż świecą jak nowe.

PS. O ile teoretycznie kalibracja do zdjęć oznacza wybranie punktu bieli D50 (5000K), to do oglądania zdjęć w świetle dziennym, czy generalnie do większości zastosowań zdecydowanie lepiej ustawić D65, taki jest też standard internetowy.

JAKA KARTA GRAFICZNA? 30HZ, 60HZ ITP, ITD…

Karta graficzna w Twoim komputerze jest bez znaczenia, jeśli chodzi o jakość wyświetlanego obrazu. Powinna mieć wyjście cyfrowe, a nie VGA i tyle, a dziś wyjścia analogowe i tak już nie występują.

Jeśli będziesz miał jeden ekran, a nie 3, to wydajność powinna być wystarczająca nawet na zintegrowanej karcie graficznej. Aczkolwiek jest bardzo duża różnica pomiędzy pracą w natywnej rozdzielczości, a z włączonym skalowaniem – ono zdecydowanie bardziej wpływa na wydajność niż sama rozdzielczość. Przy włączonym skalowaniu warto mieć lepszą kartę graficzną, a biorąc pod uwagę jak dużo dzisiaj rzeczy w obróbce zdjęć można zdziałać dzięki A.I; to i tak warto mieć szybkie GPU.

Tutaj kiedyś był rozdział o odświeżaniu i innych ograniczeniach starych złącz, ale dzisiaj już tymi kwestiami się nie trzeba przejmować bo wszystko działa jak należy.

10 bitów/kanał, zamiast 8
Przez ostatnie kilkanaście lat chcąc wykorzystać w pełni 10 bitową matrycę, nie wystarczyło po prostu podpiąć monitora i już. Aplikacje w przeciwieństwie do gier, nie działają w DirectX, tylko w OpenGL. Na systemie Windows, do 10 bitów/kanał w OpenGL potrzebna była karta graficzna nVidia Quadro lub ATI/AMD Fire i oprogramowanie, które wspierało 10 bitowy kolor (Photoshop to robił).  Zwykłe karty graficzne (GeForce, Radeon, Iris, IntelHD itd.) nie wspierają 10 bitów/kanał w OpenGL. Obecnie jest prościej, w nVidii wystarczy zainstalować studyjne sterowniki, zamiast gamingowych i będzie możn używać 10-bitowego koloru na zwykłych kartach graficznych. Sterowniki studyjne nie oznaczają gorszej wydajności w grach – jest identyczna, natomiast optymalizacje do nowych gier wychodzą najpierw w sterownikach game Ready, a dopiero później w Studio i  wtedy przez krótki czas wydajność się różni.

Natomiast na Macach z systemem El Capitan i Photoshopem CC2015 lub nowszym, 10 bitowy kolor działa z każdą kartą graficzną.

Jakie ma to znaczenie dla zajmowania się zdjęciami? Żadne. Różnicę między 8, a 10 bitowym kolorem widać tylko w niektórych, idealnie płynnych gradientach. W dodatku zrobionych bez ditheringu. Na zdjęciu nigdy taki gradient nie wystąpi, bo każdy aparat dodaje szum nawet w idealnych warunkach – po prostu jest niewidoczny gołym okiem.

Oczywiście niezależnie od systemu, 10-bitowy kolor należy najpierw włączyć w preferencjach Photoshopa, bo standardowo jest wyłączony.

Retusz i granie na tym samym monitorze

Jeśli chce się grać w „normalne” gry, to na większości monitorów graficznych nie będzie z tym żadnego problemu. Jednak jeśli chodzi o kompetytywne granie np. w strzelaniny pierwszoosobowe, to monitory 60 Hz nie mają najmniejszego sensu, bo będzie się osiągało wyraźnie gorsze wyniki, niż na 120 Hz+. Nie chodzi tylko o zaawansowanych graczy, właściwie to tym początkującym robi to największą różnicę, a dla zaawansowanych jest obowiązkowe, bo na ich poziomie każdy gra na minimum 120 Hz. Kolejną kwestią jest gigantyczny kontrast, HDR czy chociażby wielkość ekranu – pod tymi względami monitory graficzne nie mogą się równać z dzisiejszymi telewizorami. Natomiast ja mając wybór między graniem na 32″ monitorze referencyjnym, na 100″ ekranie projekcyjnym, lub na gigantycznym ekranie wyświetlanym w goglach VR/XR, już zawsze wybieram tę ostatnią opcję. Dzięki temu mam ogromny ekran o wysokim odświeżaniu w dowolnym miejscu mieszkania – chwytam gamepada i gram w Cyberpunka 2077 co kilka godzin w innym pomieszczeniu. To komfort i możliwości, o jakich mogę zapomnieć przy monitorze.

Niestety nie istnieją monitory łączące oba te światy – obraz na poziomie monitora graficznego i szybkość, oraz wysokie odświeżanie (120-360 Hz) modeli gamingowych. Był tylko jeden taki model – NEC PA322UHD, czyli topowy ekran graficzny, który po obniżeniu rozdzielczości z UHD do 1920×1080 px wg. zapewnień producenta ma działać w 120 Hz. Jednak po pierwsze już się go nie produkuje, a jego następca ma tylko 60 Hz, po drugie opóźnienia są nieco za duże na takie odświeżanie. Mam ten monitor i nigdy nie próbowałem grać w 120 Hz, bo na 32″ dopiero 2560 x 1440 px wygląda dobrze.

HDR
Na komputerze HDR w zdjęciach profesjonalnych właściwie nie istnieje i ten aspekt do zastosowań fotograficznych nie ma żadnego znaczenia. Jedynie telefony komórkowe robią fotki tego typu. Aczkolwiek HDR jest istotny w filmach i do rozrywki – wolałbym grać w niższej rozdzielczości z HDR, niż w wyższej SDR.

Apple Mac M1

Apple przeszło z Intela, na swoje własne układy oparte na ARMie. Niestety do laptopów z M1/M2 w wersjach nie Pro, można podpiąć tylko jeden monitor lub dwaz do Maca Mini (w wersji nie Pro). Da się to obejść używając Display Link np. w stacji dokującej Dell D6000. Ona pozwala na wpięcie 3 monitorów 4k, ale ten trzeci tylko w 30 Hz. Dodatkowo nie będzie działać odblokowywanie zegarkiem, bo komputer myśli, że jest w trakcie udostępniania ekranu. W obecnej wersji sterowników DisplayLink odblokowywanie komputera działa be problemu.Każdy monitor podpięty w taki sposób może mieć przypisany swój profil kolorystyczny, natomiast kalibracja sprzętowa z tego co wiem musi być zrobiona tradycyjnie, bez DisplayLinka. Poza tym DisplayLink obciąża nieco komputer i słyszałem o problemach w ostatnich aktualizacjach.

Zapisz się do newslettera

Dołącz do newslettera, żeby nie przegapić nowości