Spis treści

Ważne informacje, Mac vs. Windows itd.

  • Wstęp
  • Apple w obróbce zdjęć, na przestrzeni ostatnich lat
  • Czemu w fotografii potrzebujemy  szybszych komputerów niż dawniej?
    – Kiedy wymiana starego komputera może jeszcze zaczekać?
  • Mac vs. PC | macOS vs. Windows
    – Zarządzanie barwą
    – Zarządzanie barwą na kilku monitorach
    – Skalowanie obrazu
    – Wydajność
    – Oprogramowanie
  • Na jakie parametry komputera zwracać uwagę?
  • Na czym oszczędzać w pierwszej kolejności?

Konkretne konfiguracje

  • Zmiany w 2022 roku
  • Apple Mac
    – Czemu Macbooki są takie popularne wśród fotografów
    – O co chodzi z „procesorami” w nowych Macach
    – Jak obejść ograniczenia liczby monitorów na M1 oraz M2
    – Jak rozbudować liczbę portów w komoputerze
    – Stare Maki z nowymi bebechami
    – Zupełnie nowe Maki
  • Hackintosh
  • Laptopy z Windowsem
  • Podsumowanie

Nie chce ci się czytać wszystkiego?

Podaj maila, a za chwilę otrzymasz nagranie audio, które nagrałem jako uzupełnienie i streszczenie mojego artykułu o komputerach do retuszu.

Audycja zawiera wszystkie najważniejsze informacje, które pozwolą się zorientować jaki komputer jest potrzebny. Osobom które czytają całość i tak polecam przesłuchanie dodatkowo nagrania, tym bardziej, że jest krótkie.

Wstęp

Ostatnia aktualizacja: 23 czerwca 2022

Przez lata przez ten artykuł przewinęła się ogromna liczba konfiguracji komputerowych. Zawsze sugerowałem Maki ze względu na zarządzanie barwą w macOS i świetne ekrany w Macbookach. Jednak pokazywałem też wiele alternatyw z Windowsem (szczególnie między rokiem 2016 a 2018, gdy Apple miało liczne ograniczenia i wysokie ceny). Teraz dużo się zmieniło, ale o tym piszę więcej w kolejnych rozdziałach.

Myślę, że od kilku lat sprzęt jest tak wydajny, że dla większości osób podążanie za nowinkami straciło sens i porządny komputer, kupiony kilka lat wcześniej, najpewniej wciąż działa dobrze. Poza tym nie trzeba już kupować topowych konfiguracji, a niedobór RAMu nie ma takich konsekwencji w wydajności jak kiedyś.

Jednak gdy Apple przeszło na swoje własne procesory, to zdefiniowało na nowo, co to znaczy wydajność. Już nie chodzi o samą szybkość robienia zadań, ale i o responsywność i to jak komputer się zachowuje, kiedy np. generuje 10 000 miniatur w Lightroomie, a użytkownik w tym samym czasie używa komputera do innych rzeczy (i to nie tylko mało wymagających, ale np. montuje film). Co więcej dotyczy to nawet jednych z najniższych konfiguracji. Wszystko się przełącza równie szybko, jakby komputer w tle niczego nie robił, podczas gdy mój PC złożony do naprawdę ciężkich zadań, o konfiguracji znacznie przewyższającej to, co ktokolwiek powinien rozważać do obróbki zdjęć, zachowuje się wyraźnie inaczej, podczas maksymalnego obciążenia.

Do artykułu wstawiłem linki działające w programie afiliacyjnym Ceneo, więc można błyskawicznie sprawdzić aktualny koszt opisywanego sprzętu, w różnych sklepach.

Cała strona się skaluje, ale ze względu na obszerność tekstu, mimo wszystko zalecam oglądanie na komputerze, w dużym oknie przeglądarki. Dodałem nieco usprawnień, by całość była wtedy jeszcze czytelniejsza.

Apple w obróbce zdjęć, na przestrzeni ostatnich lat

Jak już pośrednio wspomniałem, był czas, w gdy bardzo mocno doradzałem sprzęt Apple, były też takie lata, gdy uważałem, że cenowo wypadają fatalnie, albo że nie oferują niczego dla osób, potrzebujących do retuszu komputera stacjonarnego. Na szczęście teraz jest lepiej niż kiedykolwiek. To co oferują komputery z M1 i M2, a tym bardziej z M1 Pro/Max/Ultra sprawia, że komputery z Windowsem przestały mieć jakikolwiek sens do wszystkiego, poza graniem i bardzo specjalistycznymi zastosowaniami. Są bardziej prądożerne, laptopy mają gorsze ekrany, to, wspomniana już responsywność nie może się równać, zarządzanie barwą na wielu ekranach leży (a nawet na jednym w podstawowych kwestiach takich jak ikony, interfejs systemu itd). I do tego wszystkiego dochodzi jeszcze kwestia ceny – tak jak w 2016 roku nie zostawiłem suchej nitki na Apple za to jak wyceniali laptopy, tak dzisiaj jest zupełnie przeciwnie. Wciąż marże mają gigantyczne, ale przynajmniej ewidentnie są tego warte… Przynajmniej do póki nie zacznie się dokładać RAMu i przestrzeni dyskowej, ale o tym później…

Gdybym chciał robić na komputerze tylko to, co niemal wszyscy, a tym bardziej gdybym kupował komputer konkretnie pod obróbkę zdjęć, to w ogóle nie rozważałbym dzisiaj PC. Wydając te same pieniądze, Macbooki z M1 Pro masakrują konkurencję i nie chodzi o czystą wydajność i jakość ekranu, który w retuszu jest niesamowicie istotny. W tych komputerach siedzą piekielnie szybkie SSD, a RAM zunifikowany z procesorem, o przepustowości minimum 200 GBps (do 800 GBps w M1 Ultra) sprawia, że przerzucanie danych jest wielokrotnie szybsze. Nawet jeśli zabraknie RAMu, to w większości przypadków się tego nawet nie zauważy. Jednak zwykły M1 ma przepustowość podobną do „normalnych” komputerów, co w połączeniu z maksymalnie 16 GB RAMu sprawia, że z czystym sercem mogę polecić tylko konfiguracje z M1 Pro.

A jak było dawniej, przed erą M1? Po roku 2010 komputery Apple stały się w branży fotograficznej jeszcze popularniejsze niż dawniej, m.in. ze względu na niesamowicie udane (jak na laptopy) ekrany montowane w Macbookach Pro z Retiną oraz wyjątkowo przystępnego cenowo Maca Mini. Otóż w roku 2011 zrobiono z niego bardzo fajny komputer, który w fabrycznej konfiguracji był fatalny, ale po samodzielnej rozbudowie, doskonale nadawał się do obróbki zdjęć. Miał wystarczającą moc do retuszu zdjęć z ówczesnych pełnych klatek i niesamowitą mobilność – był  nawet mniejszy i lżejszy, od produkowanych wtedy laptopów. Zabieranie komputera stacjonarnego do studia, na sesje zdjęciowe, w końcu miało sens. W 2014 roku wyszła bardzo kiepska wersja Maca Mini i dopiero rok 2018 przyniósł kolejny znakomity model, który był świetny. Laptopy cały czas były żwawo rozwijane, ale od 2016 roku ich ceny uważałem za zdecydowanie zawyżone, do tego klawiatury przysparzały problemów, a wydajność spadała pod bardzo dużym obciążeniem (jednak to zdjęć raczej nie dotyczyło, tylko video). Mimo to, był to znakomity sprzęt, jeszcze lepszy niż poprzednie generacje. Końcówka roku 2019, przyniosła nam bardzo znaczącą zmianę w laptopach (Macbook Pro 16”), dzięki której pierwszy raz od bardzo dawna, mogłem pochwalić Apple, bez wypominania im złych decyzji w projekcie komputera. Później było tylko jeszcze lepiej, bo pojawił się chip M1.

Apple vs. Windows we wszystkim poza fotografią – obecnie

Gdy kilkanaście lat temu przesiadałem się z PC na Maca, to obawiałem się braku niektórych aplikacji. Jednak szybko znalazłem odpowiedniki wszystkich programów, jakich używałem, a przy okazji były ładniejsze i miały spójny oraz bardziej przemyślany interfejs – niemal w każdym programie w tym samym miejscu są preferencje itd. Niestety do dzisiaj Windows pod tym względem wypada dużo gorzej.

Co więcej – kiedy w ostatnich latach musiałem ponownie zacząć używać PC, to okazało się, że mnóstwo świetnych aplikacji Macowych, nie ma swoich odpowiedników na Windowsa, albo są tak bardzo upośledzone, że nie sposób je porównywać. Na PC dalej nie mam programu mailowego, mogącego się równać z Air Mailem lub Sparkiem, procesora tekstu jak Ulysses, kombajnu o możliwościach Alfreda, edytora Markdown wygodnego jak iA Writter, narzędzia do screencastów jak ScreenFlow, do live streamów jak Ecamm Live, do Twittera jak TweetBot, do backupów jak Carbon Copy Cloner, do dźwięku jak Audio Hijack, do peryferii jak Better Touch Tool… mógłbym tak wymieniać i wymieniać. Do tego razem z Makiem dostaje się wiele programów, których obsługi z poziomu Windowsa bardzo mi brakuje – chociażby FaceTime, iMessage, Notatki itd; a do tego funkcje systemu jak inteligentne katalogi, możliwość automatyzacji WSZYSTKIEGO, autoryzacja zegarkiem lub odciskiem palca i wiele więcej. Napisałem artykuł o tym jak sobie radzę na Windowsie, dodając mu niektóre brakujące funkcje, ale to tylko namiastka tego co jest na macOS.

Nie ma też na Windowsie usługi podobnej do SetApp, gdzie w niewielkim abonamencie ma się dostęp do setek świetnych, komercyjnych aplikacji. To jak macOS wyprzedził Windowsa, pod względem oprogramowania, jest absolutnie niesamowite.

Jednak sytuacja zmienia się, gdy mowa o graniu, używaniu wirtualnej rzeczywistości lub o specjalistycznym oprogramowaniu, np. inżynieryjnym. Wówczas Windows pozostaje jedyną opcją. Ja do VR, grania i tworzenia 3D potrzebuję PC (działa na nim lepiej Unreal Engine, Autodesk Maya ze wspomaganiem kart RTX, headsety VR i gry). Przy czym patrząc na czystą wydajność, Mac Studio z M1 Ultra wychodzi o wiele lepiej cenowo, niż odpowiadający mu PC (i to z uwzględnieniem cen MSRP, a nie tych zawyżonych, które mieliśmy w od 2021 roku za sprawą kopania kryptowalut).

Możliwe że specjalistyczne oprogramowanie zostanie dostosowane tak, by wykorzystać max możliwości kart graficznych na macOS, skoro w wersji Ultra mają taką wydajność. Jeśli tak, to może i mi uda się wrócić do Maców, ale póki co Windows na tym polu ma znaczną przewagę.

MAC vs. PC | macOS vs. Windows w fotografii

Jeśli znasz na wylot sposób działania zarządzania barwą w Windowsie, lub jesteś zdecydowany na Maca, to możesz od razu przejść do rozdziału „Na jakie parametry komputera zwracać uwagę?” W przeciwnym wypadku koniecznie przeczytaj także poniższy rozdział.

Decydując się na komputer Windowsem, trzeba robić to świadomie, szczególnie praca na kilku monitorach może być utrudniona (zwłaszcza jeśli są to ekrany szerokogamutowe). Większość osób myśli, że po kalibracji wszystko będzie działać należycie, a tak nie jest. W systemie Microsoftu nie ma w pełni sprawnego systemu zarządzania barwą. Nie ma też natywnego skalowania obrazu we wszystkich programach – zależy ono od aplikacji. W dodatku jeśli ma się kilka ekranów i ustawione na nich różne skalowanie, to elementy są renderowane inaczej, nawet w aplikacjach, które powinny działać idealnie.

Zarządzanie barwą

Ekrany w laptopach często nie pokazują nawet w pełni przestrzeni sRGB, podobnie jak monitory biurowe. Czyli nie potrafią wyświetlić tak nasyconych kolorów, jakie mogą być na wydrukach (Adobe RGB) lub w kinie (DCI-P3). Wówczas system zarządzania barwą nie ma wielkiego znaczenia, bo skoro monitor sam „wycina” mocno nasycone kolory, to nie widać, że system tego nie robi, gdy powinien. Tym sposobem zwykły użytkownik w ogóle nie zauważy, że coś jest nie tak. I słusznie – nie ma sensu, żeby zawracał sobie tym głowę.

Tylko że monitory do grafiki i fotografii, mają znacznie szerszy gamut od zwykłych ekranów – pokazują niemal całe Adobe RGB. I bardzo dobrze, bo w fotografii krajobrazowej, macro, przyrodniczej itd, potrafi to zrobić ogromną różnicę. Zresztą w moich okolicach i generalnie w ciepłych krajach, nawet spontaniczne zdjęcie, zrobione na szybko komórką, potrafi bardzo dużo stracić po zawężeniu gamutu do sRGB. 

Przy ekranie, który potrafi wyświetlić szerszy gamut od sRGB, system operacyjny musi zadbać o to, by elementy interfejsu nie miały przesyconych kolorów (okna programów, ikony, paski narzędzi, czy nawet tapeta na pulpicie). Dobrze byłoby też, żeby wszystkie nieoprofilowane grafiki i zdjęcia były wyświetlane jako sRGB. Natomiast grafiki i fotografie z przypisanymi profilami kolorystycznymi, muszą być wyświetlane zgodnie z nimi. Niestety w Windowsie jest niemal normą, że tak się nie dzieje (w przeglądarce internetowej zazwyczaj jest OK, ale nie w pozostałych elementach systemu). Na szczęście problem z oglądaniem zdjęć w niepoprawnej kolorystyce, można łatwo obejść, używając do ich oglądania aplikacji zarządzających barwą (np. ACDSee). W Photoshopie, Capture One i w Lightroomie, kolory będą poprawne, a to najważniejsze. Jednak z jaskrawym interfejsem trzeba się pogodzić, lub ograniczyć gamut monitora.

Jeśli powyższe kwadraty mają jednolity kolor (zamiast być podzielone na prostokąty o dwóch odcieniach), to gamut Twojego monitora nie wykracza poza sRGB – jest mu równy lub węższy. To kiepsko jeśli przygotowujesz rzeczy do druku, ale do netu wystarczy. Plusem jest to, że w innych aplikacjach niż ta przeglądarka, także nie będziesz miał problemów z przejaskrawionym wyświetlaniem kolorów.

Być może tylko niektóre kwadraty będą podzielone na dwa odcienie (wtedy gamut nie jest zbyt szeroki, ale większy od sRGB – wówczas możesz mieć już problemy w innych programach). W monitorach typowo fotograficzncyh różnice są ogromne w każdym kwadracie poza ostatnim. Gdybyś miał wyłączone zarządzanie barwą, to na zdjęciach wszystkie poprawne kolory przestrzeni sRGB (te na dole kwadratów) zostałyby zastąpione odcieniami znajdującymi się na górze. Czyli na monitorach szerokogamutowych oczy byłyby wypalane radioaktywnymi barwami.

Zarządzanie barwą na kilku monitorach
Niestety poza tym co już wspomniałem, Windows nie potrafi zmieniać na żywo profilu monitora, jaki jest brany pod uwagę przez program. Czyli przeciągając na inny monitor aplikację z otwartym zdjęciem, kolory nie będą wyświetlane zgodnie z profilem kolorystycznym ekranu. Jeśli oba monitory masz podobne (tym bardziej gdy nie są szerokogamutowe), to możesz nie zwrócić uwagi, że coś się zepsuło i uznać, że po prostu oba monitory wyświetlają obraz nieco inaczej (co będzie prawdą, ale nie jedynym powodem takiej sytuacji). Dopiero po ponownym włączeniu programu, jest szansa, na prawidłową kolorystykę. Często wprowadza to w błąd użytkowników, bo standardem jest, że ktoś próbuje porównywać obraz obu monitorów, przenosząc zdjęcie z jednego ekranu na drugi, natychmiastowo obserwując zmiany w wyświetlanym obrazie. Prawdopodobnie każdy z nas tak kiedyś robił. Z tego wszystkiego wynika duża komplikacja, bo co jeśli będę chciał mieć jeden program na dwóch monitorach na raz?

Przy takiej konfiguracji Windows wyświetli poprawną kolorystykę tylko na jednym ekranie. macOS jest pod tym względem zupełnie inny – można w nim przeskakiwać pomiędzy ekranami i wyświetlać okna jednej aplikacji na kilku monitorach na raz, a kolorystyka będzie prawidłowa. Sytuacje gdy to się przydaje można mnożyć, np. wyświetlanie miniatur w Lightroomie i całego zdjęcia na osobnych ekranach.

Załóżmy, że kolorystyka drugiego ekranu nie ma dla nas znaczenia, bo są tam tylko palety. Ze względu na w/w problemy w Windowsie, lepiej się upewnić, czy Photoshop na pewno uznał jako ekran główny ten, na którym jest wyświetlane zdjęcie, a nie monitor z samymi paletami. W przeciwnym wypadku mimo teoretycznie skalibrowanych  monitorów, kolorystyka będzie nieprawidłowa.

Powyżej widać, że Photoshop jako ekran podstawowy widzi ten sam monitor, który został wskazany w systemie jako główny (podświetlony profil – jednak absolutnie nie należy go ustawiać jako przestrzeń roboczą PS!!!). Na Macu nie ma potrzeby kontrolowania profilu, a po przeniesieniu Photoshopa na drugi monitor i tak w moment kolorystyka wraca do prawidłowej, natomiast na Windowsie to nie nastąpi. Uśpienie całego systemu macOS też nie sprawia problemów – komputer wybudza się razem z monitorem i natychmiast jest gotowy do pracy, z odpowiednim profilem – bez restartu aplikacji.

Stworzyłem osobny artykuł, w którym można przetestować zarządzanie barwą zarówno każdej przeglądarki internetowej, jak i dodatkowego oprogramowania zainstalowanego w systemie (przeglądarki graficzne, PS i wszystko inne) – znajdziesz go tutaj. Opisałem tam też szerzej, jak wygląda zarządzanie barwą w różnych systemach i przeglądarkach (także na telefonach i tabletach).

Skalowanie obrazu

Obsługa skalowania jest zupełnie inna na Windowsie niż na macOS Nie ma to żadnego znaczenia gdy masz monitor o standardowej rozdzielczości (chyba, że ktoś ma bardzo słaby wzrok), ale jest ważne, jeśli korzysta się z ekranu UHD/4K.

Osobiście skalowania nie używam ani na macu ani na Windowsie, ale jestem wyjątkiem. Po prostu dzięki przekątnej 31,5″ interfejs w rozdzielczości 3840 x 2160 px mam dość duży, by był czytelny (prawie identyczny jak po ustawieniu 1920 x 1080 px na 15″), a jednocześnie mieści się na nim niesamowicie dużo, bo tyle, co na 4 monitorach 24″ 1920 x 1080 px. Poniżej widać na macOS, ekran mojego monitora UHD, bez skalowania:

Gdybym jednak skalowanie włączył (a na mniejszych ekranach to raczej konieczność, bo interfejs bez tego byłby zbyt mały), to wówczas każda aplikacja dalej będzie wyglądała doskonale. Nie ważne czy programista przewidział używanie jej na ekranach UHD, czy nie. Oczywiście próba wyświetlenia takiej samej ilości informacji, nawet w pomniejszonych oknach, nie mogła się udać, co widać poniżej (ekran UHD z włączonym skalowaniem do rozmiarów interfejsu, jak na standardowym monitorze 27″):

W Windows to jak aplikacja będzie się prezentowała, zależy od developera. Dlatego część oprogramowania będzie wyglądać idealnie, a z innego ledwo się będzie dało korzystać. Na szczęście obecnie już tylko naprawdę dawno nieaktualizowane programy sprawiają programy. Pozostaje problem, który już opisywałem wcześniej – Windows nie renderuje poprawnie okien, gdy na wszystkich ekranach nie ma identycznego skalowania. Z tego powodu nie byłbym w stanie polecić kupna monitora o bardzo wysokiej rozdzielczości, jeśli korzysta z Windowsa i kilku ekranów o różnych wielkościach i rozdzielczościach, które muszą być skalowane. Niestety ceny dużych monitorów UHD/4K, nadających się do profesjonalnej obróbki zdjęć, są wciąż bardzo wysokie (obecnie od ponad 20 000 zł), a znacznie tańsze 24″ i 27″ mają o wiele mniejszą plamkę, więc skalowanie na nich będzie obowiązkowe u prawie każdego. Z kolei tanie i duże ekrany UHD, nadają się do zdjęć jedynie w wyobraźni działów PR, więc zanim doczekamy się dużych monitorów fotograficznych o wysokiej rozdzielczości, minie jeszcze sporo czasu. O monitorach do fotografii napisałem osobny, bardzo obszerny artykuł.

Powyższe problemy Windowsa nie są jedynymi, ale moim zdaniem są najistotniejsze, z punktu widzenia osoby pracującej nad zdjęciami. Jednak jak już pośrednio wspomniałem – nie każdego muszą dotyczyć. W dalszej części artykułu rozwijam ten temat. 

Czemu obróbka zdjęć, wymaga szybszych komputerów niż dekadę temu?

Lata temu większość z nas obrabiała zdjęcia 12-16 Mpix, niektórzy 24. Dzisiaj mamy znacznie gęściej upakowane matryce. Ogromne zmiany dotknęły też monitorów do fotografii – przyzwoite, szerokogamutowe ekrany, można mieć znacznie taniej niż dawniej, więc zagościły u fotografów na dobre. Co za tym idzie, obróbka w 16 bitach/kanał stała się znacznie częstsza, a ona obciąża komputer o wiele bardziej, niż retusz plików w 8 bitach/kanał. Poza tym dawniej nikt nie miał monitorów UHD/4K, które są bardziej wymagające (szczególnie z włączonym skalowaniem obrazu). Co gorsza, niektóre starsze karty graficzne, nie są już wspierane przez oprogramowanie Adobe i działają teraz bez akceleracji, co ma ogromne przełożenie na komfort pracy, który właściwie przestaje istnieć i praca ze zdjęciami zamienia się w męczarnię.

Jak przyspieszyć starego PC

Jeśli wciąż obrabiasz zdjęcia do 12 Mpix i robisz to w 8 bitach/kanał, to nawet komputer sprzed ponad 8 lat, z dwurdzeniowym i5 ok. 2,2 GHz i 8GB RAM, wciąż będzie sobie radził całkiem dobrze. Jednak na pewno warto mu zamontować SSD jeśli jeszcze go nie ma – responsywność wzrośnie niesamowicie. Nawet jeśli to będzie tanie SSD na SATA 3, to zostawi dysk twardy bardzo daleko w tyle, pod względem szybkości uruchamiania aplikacji itd.

Gorzej jeśli to nie retusz pojedynczych zdjęć, tylko wsadowa obróbka – wtedy starsze komputery mocno odstają od obecnych. Podobnie jak w przypadku pracy na dużych plikach. Warto pamiętać, że mocna obróbka w zaledwie 8 bitach/kanał prowadzi do pogorszenia jakości, więc 16 bitów na kanał jest wskazane, a w szerszych przestrzeniach barwnych, wręcz konieczne. Jeśli temat obróbki w głębi 8 i 16-bitowej na kanał nic ci nie mówi, to omawiam to na tym filmie (od 11:35 min).

Kiedy Windows nie sprawia problemów?

Upośledzone zarządzanie barwą niekoniecznie musi być widoczne i uciążliwe. Nie widzę przeciwwskazań w używaniu Windowsa, gdy jego użytkownik ma PC z tylko jednym monitorem. Gamut monitora musiałby być ograniczony do sRGB (natywnie lub za sprawą kalibracji sprzętowej). Gdy wszystkie powyższe warunki są spełnione, to możliwość wystąpienia problemów z kolorami, nawet w aplikacjach natywnych, jest zminimalizowana najbardziej jak to tylko możliwe Teoretycznie wszystko powinno być w porządku. W przypadku podpięcia monitora przez HDMI (zamiast DisplayPort lub DVI), należy dodatkowo sprawdzić w sterowniku karty graficznej, czy na pewno jest podawany sygnał w pełnym zakresie, a nie w ograniczonym i też będzie OK (pod warunkiem, że monitor ma rozdzielczość nie większą od 1920 x 1200 px – wówczas bez kombinowania należy użyć innego złącza lub HDMI w wersji minimum 2.0).

Jednak to są ogromne ograniczenia, które u ludzi związanych z fotografią zawodowo, mogą okazać się dyskwalifikujące. Osoba z monitorem sRGB zapewne nie obrabia zdjęć pod druk, jedynie do Internetu – wówczas szeroki gamut w monitorze nie jest potrzebny (w przyszłości pewnie się to zmieni). Możliwe też, że ktoś taki robi odbitki, zamiast wydruków, wtedy sRGB zazwyczaj wystarczy. Jednak bądźmy szczerzy – kupowanie coraz lepszych obiektywów, jednocześnie przeogromnie ograniczając sobie finalne efekt finalny przestrzenią sRGB, ma niewielki sens poza Internetem. Poza tym o ile „polska paleta barw” zazwyczaj nie jest zbyt kolorowa i jaskrawa, to po każdej wizycie w ciepłych krajach docenia się to, że nawet zdjęcia z iPhone mają szerszy gamut niż sRGB.

Mając monitor szerokogamutowy, można się poratować kalibrując ekran do dodatkowego targetu o przestrzeni sRGB i przełączać się na niego, gdy robi się cokolwiek innego od obróbki zdjęć. Wtedy nie będzie przejaskrawionej kolorystyki, tam gdzie jej być nie powinno. Po prostu wybiera się odpowiedni profil,  restartuje przeglądarkę internetową/program do obróbki zdjęć i gotowe. Często też w menu monitora jest odpowiednia opcja, ale wtedy gorzej z odzwierciedleniem kolorów (brak kalibracji) i prawidłową gammą.

Tylko obróbka zdjęć

Jeśli komputer będzie przeznaczony wyłącznie do retuszu, a nie także do wszystkiego innego, to jest prościej. Nie ma wtedy znaczenia jak się zachowują pozostałe aplikacje. Wówczas można nie odczuwać żadnych problemów, mimo posiadania monitora szeroko-gamutowego, o rozdzielczości UHD lub większej. W Photoshopie i programach graficznych zarządzających barwą, wszystko będzie w porządku. PS CC od pierwszej wersji skaluje się prawidłowo w systemie Microsoftu. Starsze (CS6 i wcześniejsze) niestety nie, ale można spróbować tego sposobu.

W przypadku dwóch monitorów jest gorzej – wtedy najlepiej się pogodzić z tym, że nie będą równie użyteczne jak na macOS. Należy się też upewnić, czy program na pewno korzysta z profilu monitora, na którym został wyświetlony (oczywiście dotyczy to też ekranów wbudowanych w laptopa, z podłączonym zewnętrznym monitorem). Zazwyczaj działa to jak należy, ale czasem miesza monitory i generalnie ciężko przewidzieć zachowanie systemu pod tym względem.

Jako ogromną zaletę standardowych PC z Windowsem, uważam możliwość bardzo dużego podkręcania sprzętu, tym bardziej, że obecnie overclocking jest bardzo mocno zautomatyzowany, a co więcej, całkiem nieźle daje radę nawet na chłodzeniu powietrznym.

Na jakie parametry komputera zwracać uwagę, przy konfiguracji do retuszu?


Kupując maca spokojnie możesz już teraz przejść na kolejną stronę, zamiast czytać poniższe akapity, bo przy opisywaniu każdego modelu wspominam o tym jak się ma jego konfiguracja wobec obróbki zdjęć. W obecnych modelach komputerów Apple, wszystko poza RAMem wystarczy niemal każdemu, nawet już w podstawowej konfiguracji. Dużo też zależy od tego, do jakiego typu obróbki będzie służył komputer.

RAM
Absolutnie nie należy kupować komputera, który ma mniej niż 16 GB RAM!!! Ta zasada w fotografii obowiązuje od ponad dekady. Gdy RAMu zabraknie, to wydajność spadnie tak bardzo, że może się całkowicie odechcieć pracy. Chyba że mowa o Macach z M1 Pro – one przepustowością i szybkością dysków nadrabiają, ale to wciąż nie powód, by brać mniej niż 16 GB. SSD mają ograniczoną liczbę cykli zapisu, więc używanie ich jako RAM przy jego tak dużym niedoborze, skróci drastycznie żywotność (do retuszu ok. 24 GB+jest idealnym wyborem, więc przy 8 GB non stop byłoby coś zapisywane na dysku, a przy 16 GB już znacznie rzadziej).

Dla mnie 32 GB jest optymalne, bo daje zapas, ale z 24 GB też bym sobie poradził. Natomiast 64 GB w obróbce zdjęć nie dałoby mi żadnej przewagi nad 32 GB. 16 GB w miarę wystarcza, ale np. uruchamiając sobie zdjęcie wzorcowe, zawsze musiałem je wcześniej zapisać jako JPG, bo PSD zajęło by mi za dużo miejsca. Nawet mając otwarte tylko jedno zdjęcie, na 16 GB RAMu musiałem regularnie scalać nieużywane warstwy i co chwilę zerkać, ile wolnego miejsca zostało (szczególnie na komputerach bez szybkiego dysku NVMe, tylko ze zwykłym SSD na SATA3. Aczkolwiek obecnie jest dużo lepiej niż kiedyś, bo dyski mocno przyspieszyły. Nawet gdy testowo doprowadziłem do poniższego stanu, to komputer (w Macbook Pro z 16 GB RAMu) wciąż pracował niewiarygodnie dobrze: 

Dawniej pojawienie się tam nawet 12G/11,6G, oznaczałoby katastrofę dla wydajności, a w moment można było do tego doprowadzić kadrowaniem. Czym wolniejszy dysk jest używany jako pamięć podręczna, tym bardziej odczuje się brak RAMu.

Procesor
Kolejna ważna sprawa to procesor, przy czym liczba rdzeni ma drugorzędne znaczenie – Photoshop wciąż sobie nie radzi z wykorzystywaniem ich wszystkich naraz. Adobe pod tym względem ulepsza poszczególne filtry, ale program jako całość, od lat działa podobnie. Nie znaczy to, że nie warto mieć 6 rdzeni i więcej, ale że nie warto brać stacji roboczej z 64 rdzeniami, jeśli alternatywą jest komputer z 6 rdzeniami o wyższym taktowaniu.

Osoby zajmujące się wsadową obróbką, a więc pracą nad wieloma RAWami na raz, znacznie bardziej skorzystają na dodatkowych rdzeniach. Szczególnie przy generowaniu podglądów i eksporcie. Więc jeśli Twoim głównym narzędziem pracy jest np. Lightroom, to liczbę rdzeni też warto mieć na uwadze. Tym bardziej, że ostatnie lata przyniosły w nim znaczną poprawę wielowątkowości.

Do samego taktowania szybszego o 100 czy 200 MHz nie ma sensu dopłacać. Tym warto się zająć, dopiero kiedy pomimo odpowiedniej pamięci i wystarczającego dysku, wciąż są wolne fundusze. Tylko trzeba pamiętać, że w Intelu i3/i5/i7/i9, to jedynie nazwy marketingowe. Kryją się pod nimi najróżniejsze procesory, szczególnie po zmianach z roku 2017, gdzie tak namieszano w nazwach, że już nawet nie próbuję ich spamiętać. Finalnie i tak trzeba spojrzeć w benchmarki, zamiast w samą specyfikację.

SSD | dysk twardy w komputerze z Windowsem
Komputer musi być wyposażony w SSD, na system koniecznie SSD NVMe któremu nie żałowano cache (niestety istnieją modele targetowane w nieświadomych klientów, które za sprawą małego cache mają już po chwili ogromny spadek wydajności). Coś w stylu Samsunga 970 Evo plus uważam za minimum. Należy zapomnieć o HDD jako dysku systemowym lub na plik wymiany Photoshopa (oraz na programy i zdjęcia, nad którymi aktualnie się pracuje). Hybrydowe dyski do obróbki zdjęć to też kiepski pomysł, SSD stanowi w nich tylko niewielką ich część, zbyt małą na pomieszczenie zarówno systemu operacyjnego z oprogramowaniem, jak i RAWów z ostatnich sesji. Na szczęście SSD tanieją i hybrydy to już rzadkość. Różnice pomiędzy poszczególnymi modelami SSD potrafią być gigantyczne, a modele na SATA mają znacznie niższą szybkość od NVMe, więc nadają się na magazyn danych, ale jako dysk systemowy spowolnią komputer.

Pojemność dysku
Dla SSD bardzo duże znaczenie ma pojemność – duże dyski są znacznie bardziej żywotne, bo dane nie są wciąż zapisywane w tych samych sektorach. Są też duże różnice w szybkości zapisu, aczkolwiek mniejsze niż kiedyś. Najmniej pojemne dyski mają znacznie wolniejszy zapis od tych samych modeli, z większą pojemnością, przy czym odczyt się nie zmienia w zależności od rozmiaru, a to on jest najważniejszy. W fotografii takie różnice w prędkości zapisu mają znikome znaczenie gdy dysk jest tylko do przetrzymywania zdjęć, a nie na system operacyjny. Natomiast gdy SSD jest zapełnione niemal w całości, to dodatkowo zwalnia. Dlatego branie laptopów z SSD 128 GB, to bardzo słaby pomysł, nie tylko ze względu na samą niewielką pojemność, ale właśnie przez wydajność i żywotność. 500 GB to dla mnie obecnie poziom poniżej którego ciężko byłoby zejść w laptopie (plus kilka TB dodatkowych dysków). Problem w tym, że to właśnie pojemność SSD ma bardzo duży wpływ na cenę, szczególnie w komputerach Apple. W każdym razie 250 GB to absolutne  minimum właściwie dla każdego, nawet jeśli o tym nie wie. Natomiast bez problemu kupiłbym komputer stacjonarny z SSD 256 GB, gdyby miał to być dysk tylko na system i programy, a wszystko inne trzymałbym na dodatkowym SSD, podpinanym np. przez Thunderbolt lub szybkie USB. To dlatego, że sam system z programami i tak zapełniłby mi tylko niewielką część z 256 GB, a wszystko inne byłoby na drugim dysku. W laptopie bym się nie zdecydował na tak małą pojemność głównego SSD, bo konieczność ciągłego korzystania z dodatkowego dysku w przenośnym komputerze, to dla mnie zaprzeczenie mobilności. 

Karta graficzna w komputerze z Windowsem
Karta graficzna nie ma wpływu na jakość wyświetlanego obrazu (kalibrację, ostrość, odwzorowanie barw itd). Dobrze jakby miała złącze DisplayPort, bo to niezawodny sposób podłączenia, umożliwiający korzystanie z ekranów o wysokiej rozdzielczości bez ograniczeń. Poza tym wszystkie profesjonalne monitory mają to złącze. Thunderbolt też będzie okay, ponieważ TB ma w sobie DisplayPort (najwyżej będzie potrzebna przejściówka). Kupowanie karty z samym HDMI starszym niż 2.0 jest pomyłką, szczególnie gdy mowa o laptopie, bo wtedy można zapomnieć o taniej rozbudowie. Natomiast DVI Dual Link od biedy ujdzie, ale jest to mało przyszłościowe wyjście, ze względu na brak obsługi UHD/4K. Jednak w nowych sprzętach i tak tego złącza się raczej nie ujrzy. Natomiast HDMI 2.0 teoretycznie sobie z tym radzi, ale często montuje się starszą wersję tego złącza, która nie daje rady nawet z ekranami 27″ 60 Hz, o UHD nie wspominając. A nawet jeśli komputer będzie mieć HDMI 2.0, to monitor niekoniecznie, więc trzeba sprawdzić to w jego specyfikacji. O podpinaniu monitorów więcej pisałem we wpisie o tym, jaki ekran wybrać do obróbki zdjęć.

Ilość pamięci w karcie graficznej (VRAM) ma wpływ na płynność działania, głównie gdy używa się ekranów o bardzo dużych rozdzielczościach (4K i więcej). Jest to ważne przede wszystkim, kiedy ma się pootwieranych bardzo dużo okien i pracuje się z włączonym skalowaniem obrazu. Czyli prędzej problem z płynnością dotknie np. osobę zajmującą się programowaniem, niż obrabiającą zdjęcia. Jeśli komputer będzie służył tylko do wyświetlania Photoshopa, to dopłacanie do większej liczby VRAM nie przyniesie korzyści, ale z pewnością nie zaszkodzi, a będzie bardziej przyszłościowe. Niektóre bardzo stare karty nie są już wspierane i używanie ich ma bardzo duży wpływ nie tyle na szybkość, co na komfort pracy – np. nie można wtedy płynnie zoomować obrazu (jednak na szybkość też wpływa, chociażby w filtrze Liquify/Formowanie/Skraplanie). Karty, które nie są już wspierane, to m.in: AMD/ATI z serii: 100, 200, 3000, and 4000 | GeForce z serii: 7000, 8000, 9000, 100, 200, 300 | Intel HD4000 i starsze.

To jak wydajna jest karta graficzna, ma niemal zerowe znaczenie podczas retuszu w Photoshopie, ale ogromne przy pracy nad filmami i w aplikacjach do robienia grafiki 3D. Ma też coraz większe znaczenie podczas wywoływania zdjęć – Lightroom z każdą wersją coraz bardziej wykorzystuje GPU w module Develop, a od niedawna także samo przetwarzanie zdjęć jest szybsze. Photoshop też się rozwija pod tym względem – niektóre filtry działają dużo szybciej na dobrych kartach graficznych, ale w high End Retouchingu to ma marginalne znacznie. Wiele pluginów do PS używa akceleracji graficznej i to już istotniejsze. Mimo wszystko, nie uważam, żeby dobra karta graficzna była koniecznością do retuszu w Photoshopie.

Gdybym wciąż pracował na monitorze typu Eizo CG247 (czyli o standardowej rozdzielczości 1920 x 1200 px), to do samego PS w ogóle bym sobie kartą graficzną nie zawracał głowy i używał zintegrowanej. Gdy przez lata pracowałem na laptopie (2880 x x1800 px) bez zewnętrznego monitora i przełączałem kartę graficzną na zintegrowaną, to podczas pracy w retuszu w PS nie odczuwam żadnej różnicy w stosunku do dedykowanego GeForce – integra spisywała się doskonale, retusz szedł tak płynnie, jak to tylko możliwe. Sytuacja zmienia się po podpięciu drugiego ekranu UHD, szczególnie z włączonym skalowaniem – wówczas warto mieć trochę więcej mocy w GPU.

Karty dla profesjonalistów, takie jak nVidia Quadro lub seria Ax000 itp. w obróbce zdjęć nie dają przewagi nad modelami typowo desktopowymi. Istotniejsze będzie więcej gigabajtów pamięci w zwykłej karcie, bo Quadro o porównywalnej cenie do GeForce, mają mniej pamięci. Quadro ma sens chcąc podłączyć mnóstwo monitorów przez DisplayPort,. Gdyby doszły jeszcze jakieś zastosowania video (renderowanie każdego dnia), to bałbym najwyższy model GeForce lub Radeona, na jaki budżet pozwoli, ale do samego retuszu karta ze średniej lub nawet z niskiej półki, będzie OK.

Oczywiście zostaje jeszcze odwieczna kwestia, uruchomienia 10 bitowego koloru, ale jest to tak bardzo bezcelowe w fotografii, że po prostu temat pominę. Jeśli kogoś bardzo interesuje, to tutaj o tym wspominam, a także omawiam na tym video.

Na czym oszczędzać w pierwszej kolejności? 

W dużej mierze odpowiedzią jest poprzedni rozdział, ale tutaj temat doprecyzuję. Poniższą listę ułożyłem, zaczynając od rzeczy najbardziej zbędnych, zakładając, że komputer służy konkretnie do obróbki zdjęć. Gdy ktoś chce też grać, to wiadomo, że wtedy karta graficzna będzie miała ogromne znaczenie, natomiast dysk twardy mniejsze.

Karta graficzna – jeśli nie masz i nie planujesz mieć monitora UHD, to w pierwszej kolejności zrezygnuj z dodatkowej karty graficznej. Do samego retuszu spokojnie wystarczy wtedy zintegrowana z procesorem, z wyjściem DisplayPort lub DVI dual link (single link sprawdzi się na max 1920x1200px @60Hz). HDMI starsze niż 2.0 to ostateczność i sprawdza się tylko przy max 24″. Czasami da się wyciągnąć rozdzielczości używane na większej przekątnej, ale trzeba kombinować. Natomiast mając monitor UHD, a tym bardziej używając na nim skalowania, do karty graficznej wręcz lepiej dopłacić, niż na niej oszczędzać.

SSD SATA3 zamiast NVMe to też spore oszczędności, aczkolwiek w ostatnich latach coraz mniejsze. Różnica w szybkości działania, nie u wszystkich użytkowników będzie widoczna w codziennej pracy. Spokojnie można kupić niewielki SSD NVMe na system i drugi, SATA3 na zdjęcia. Nie powinno to mieć żadnego wpływu na szybkość, bo w takich zastosowaniach to nie dysk 500 MB/s jest wąskim gardłem. Natomiast jeśli zajmujesz się też obróbką video, to na dysku nie oszczędzaj. Można też zrezygnować z pojemności, jeśli ma się NAS lub cokolwiek innego na pliki, ale mniej od 256 GB to kiepski pomysł zarówno ze względu na pojemność, jak i zmniejszoną żywotność, oraz potencjalny spadek szybkości.

Procesor można wziąć o nieco niższym taktowaniu, bo czasami za dodatkowe 200 MHz dopłaca się bardzo dużo. Tylko trzeba uważać  w laptopach, by nie okazało się, że ten niżej taktowany procesor, to zupełnie inna, bardziej energooszczędna seria, bo wtedy różnica w wydajności będzie o wiele (wieeeele) większa, niż wynika z taktowania (może mieć też znacznie niższe TDP lub mniej cache).

Oszczędzając, można kupić i5, zamiast i7/i9. To wciąż bardzo dobre procesory, które większości osób spokojnie wystarczą. Właściwie obecnie i5 oraz i7 z tych samych serii różnią się zazwyczaj tylko taktowaniem i cache. Jeśli sprzęt ma być bardzo uniwersalny, to unikałbym procesorów 2-rdzieniowych i szedł w minimum 4 rdzienie. Inna opcja, to pójście w procesory AMD Ryzen, które są równie wydajne w zastosowaniach profesjonalnych, a kosztują zdecydowanie mniej, aczkolwiek dochodzi wtedy koszt osobnej karty graficznej. Gdybym składał PC od zera, to skupiłbym się właśnie na procesorach AMD, natomiast w laptopach nadających się do zdjęć wciąż Intel jest monopolistą.

RAM to ostatnia rzecz na jakiej bym oszczędzał w komputerach z Windowsem, a przynajmniej na pojemności, bo nieco wolniejsze pamięci lub z większymi opóźnieniami, nie mają takiego wpływu na wydajność jak gdy pamięci jest zbyt mało. Przy 8GB komputer będzie często zwalniał, szczególnie podczas pracy na dużych plikach. Uznajmy, że kupowanie mniej niż 16 GB, to pomyłka. Zresztą już ponad 10 lat temu było fatalnym pomysłem, a co dopiero teraz. Masa ludzi ma zdecydowanie za mało pamięci, ale po prostu o tym nie wie, bo spadek szybkości komputera, to dopiero ostatni skutek. Warto czasami zerknąć na statystyki RAMu w systemie. 

Przykład komputera, ze zdecydowanie niewystarczającym RAMem

Zbyt mała ilość RAMu wpływa negatywnie na żywotność SSD, bo gdzieś te dane muszą się podziać, a SSD ma ograniczoną liczbę zapisów – później można dane odczytać i dysk wyrzucić, albo zachować na pamiątkę. Na szczęście obecnie to już marginalny problem, bo zaszedł ogromny postęp pod względem żywotności SSD i za życia jednego komputera raczej problem u nikogo nie wystąpi.


Pomijam tutaj kwestie takie jak zasilacz w PC (koniecznie porządny) czy płyta główna (również żadnych budżetowych wynalazków), bo te komponenty dobiera się, patrząc na całą konfigurację i ciężko je rozpatrywać, nie znając każdego komponentu komputera. Ja w PC do płyty głównej przywiązuję ogromną uwagę, ze względu na mocne podkręcanie procesora i karty graficznej. Dzisiaj mimo, że różnice pomiędzy płytami głównymi są dużo mniejsze, niż dawniej, to wciąż istotne.

Recommended Posts