Robienie kopii zapasowych plików to temat, który dotyczy każdego czytelnika tego bloga. Bez żadnego wyjątku. Jeśli ktoś nie robi kopii zapasowych swoich zdjęć i pozostałych danych, to pozostaje mieć nadzieję, że nie mają one dla niego absolutnie żadnego znaczenia, ponieważ wszystkie je straci. Pozostaje tylko kwestia tego, czy stanie się to jeszcze dzisiaj, czy dopiero za kilka lat.

Oczywiście w bardzo wielu przypadkach dane są do odzyskania, po prostu trzeba mieć odpowiednie oprogramowanie i wiedzę w tym zakresie, a często i tak skończy się na potrzebie skorzystania z usług firmy, która się w tym specjalizuje. Cena za taką usługę pozostanie w pamięci na długo, a osobie którą to spotkało, pewnie nawet przez myśl nie przejdzie, by dalej nie robić backupów. 

Pisałem już w jaki sposób kataloguję fotografie, jednak tym razem skupiam się na zapleczu tego wszystkiego. Opisuję na czym trzymam zdjęcia, jak je archiwizuję itd. Przy czym chodzi mi wyłącznie o te zdjęcia, które robię aparatem z wymienną optyką (wszystkie one są RAWami albo plikami PSD). To o tyle istotne, że fotki stworzone telefonem mam osobno – to zwykłe JPG, które lądują automatycznie w iCloud, czyli w chmurze Apple. Tam też mam zdjęcia modelek, ale tylko te obrobione, w postaci JPG. RAWy i PSD trzymam osobno i to o nich będę pisał.

Kiedyś – dyski USB

Na samym początku miałem kilka dysków twardych zamontowanych bezpośrednio w komputerze. Od kiedy przesiadłem się na Maca Mini, zacząłem używać także zewnętrznych HDD, a po zakupie laptopa wszystkie dyski, poza systemowym, były podpinane przez USB (WD Elements 2,5“, WD My Passport 2,5” i Hitachi Turio Desk 3,5″). To było kiepskie rozwiązanie i wiedziałem, że jest tylko tymczasowe. Każdy z tych dysków miał 2TB. Jeden był przeznaczony na dane, a dwa na kopie zapasowe. Jak wiadomo, ludzie dzielą się na tych co robią back up-y i na tych, którzy będą je robić. Aczkolwiek jedna kopia to zdecydowanie za mało.

Na sesjach robię niewiele zdjęć, a przez większość czasu miałem aparat generujący małe pliki, więc 2 TB wystarczały mi w zupełności – do tej pory zapełniłem tylko 500GB (z których spokojnie mógłbym jeszcze bardzo dużo usunąć). Reportaży zawierających tysiąc zdjęć nie wykonuję w ogóle, jedynie czasami biorę Nikona na jakąś imprezę. Na ogół wolę używać aparatu w telefonie do wszystkiego poza modelkami. Poza tym od czasu do czasu usuwam RAW-y, których już na 100% nie będę wywoływał. Tak więc problem zdjęć zajmujących dziesiątki terabajtów u mnie nie występuje. A nawet gdyby, to dzisiaj nie jest to szczególnie dokuczliwe, bo ceny dysków nie są wysokie.

Tak jak napisałem, dyski USB były tymczasowym rozwiązaniem. M.in. dlatego, że takie dyski takie nie są stworzone do pracy non stop, dostęp do nich z urządzeń mobilnych oraz z większej odległości jest niemożliwy, huby do których się je podpina muszą być aktywne, a ich prędkość ogranicza sposób podłączenia. No i przy podpinaniu dysków USB do routerów zawsze miałem jakieś problemy, więc ostatecznie nie używałem ich w ten sposób.

Zdjęcia nad którymi pracowałem, trzymałem na SSD PCI-E wbudowanym w komputer. Dopiero po obróbce przenosiłem je na zewnętrzny HDD (nie licząc kopii zapasowych – te Time Machine robiło regularnie). Zresztą do tej pory trzymanie aktualnie obrabianych plików na SSD, to najlepszy sposób jeśli chodzi o prędkość.

Obecnie – NAS

Koniec z dyskami USB, od teraz są tylko dodatkiem. Nareszcie przesiadłem się na NAS, czyli na urządzenie, w które wkłada się dyski i łączy z nimi przez wi-fi. Dzięki temu dostęp do HDD jest możliwy z każdego urządzenia. W końcu mogę wygodnie korzystać z plików tam trzymanych za pośrednictwem telefonu i tabletu.

Obecnie używam tylko jednego komputera, ale dostęp do danych z wielu urządzeń i tak był dla mnie bardzo istotny. Nie chodzi tylko o zdjęcia – po prostu powoli przestaję używać komputera do czegokolwiek innego niż Photoshop. Niemal wszystko wolę robić na tablecie. Do tej pory największym minusem używania iPada, był brak dostępu do wszystkich danych. Część rzeczy miałem w dyskach w chmurze, ale nie wszystko, w dodatku prędkość mojego internetu była wąskim gardłem. Z NAS-em ten problem przestał istnieć.

schemat2

Sieć
Bardzo ważna kwestia, skoro wszystko leci przez wi-fi. Sieć w mieszkaniu mam opartą o router AC z antenami 2,4 i 5 GHz, ale niemal wszystko chodzi na tej wyższej częstotliwości. NAS jest podpięty 2 kablami do routera, co daje max przepustowość 2 Gbit/s, czyli ok. 250 MB/s. Standard AC umożliwia osiąganie o wiele wyższych prędkości, więc sieć bezprzewodowa nie powinna być wąskim gardłem (przynajmniej teoretycznie, bo bardzo ważna jest odległość od routera i pozostałych urządzeń itd.). Jeśli chce się myśleć o dostępie do wszystkich danych przez sieć, to trzeba zadbać o to, żeby nie była zbyt wolna, albo wybrać inną formę podłączenia. Niektóre urządzenia umożliwiają wpięcie się przez Thunderbolt, a wszystkie można podłączyć kablem sieciowym bezpośrednio do komputera. Jest to zdecydowanie mniej uniwersalne niż skorzystanie z wifi przez router, ale w ostateczności da się tak zrobić.

Nie tak drogo
Wydawało mi się, że te urządzania są wielkie, ciężkie i strasznie drogie, ale najwyraźniej dawno nie spoglądałem w oferty. NAS na dwa dyski (firmy Synology lub QNAP) można mieć już za 500 zł. Ten który ostatecznie kupiłem był droższy, ale obsługuje więcej dysków i ma znacznie mocniejszą specyfikację, co przyda się do pozostałych zastosowań, bo tych jest znacznie więcej niż samo trzymanie danych.

NASy nie są już ani duże ani ciężkie (a może nigdy nie były?). Zabranie do bagażu podręcznego w samolocie nie powinno stanowić problemu. Istnieją też takie opcje jak podwójne dyski WD z wbudowaną łącznością bezprzewodową, Thunderboltem i obsługą RAID. Ich możliwości są mniejsze niż rasowych NAS-ów, ale jeśli ma to służyć wyłącznie trzymaniu zdjęć, to sprawdzi się bardzo dobrze i jest wyjątkowo mobilne.

RAID

Głównym powodem, dla którego kupuje się NAS-y jest dostęp bezprzewodowy i możliwość spięcia dysków w RAID. Czyli połączenia ze sobą kilku HDD w określony sposób, co daje dodatkowe korzyści. W moim przypadku jest to RAID1, składający się z dwóch dysków.

RAID1 to ten, w którym na wszystkich dyskach są identyczne dane. Dzięki temu zawsze ma się kopię zapasową, a odczyt plików może być tyle razy szybszy, ile dysków zostało ze sobą połączonych (bo jeśli jeden HDD ma max odczyt 150 MB/s, to ściągając po połowie danych z 2 dysków na raz, teoretycznie będzie można osiągnąć 300 MB/s). Oczywiście wszystko dzieje się w tle, bez jakiegokolwiek udziału użytkownika. Dane są bezpieczniejsze niż normalnie i zyskuje się na prędkości.

No ale do rzeczy…
W tej chwili w NAS-ie mam 2 dyski spięte w RAID1, oba to WD RED 3TB. To tam trzymam wszystkie dane, razem ze zdjęciami.

Trzeci HDD, który włożyłem do NASa to mój stary Hitachi 2TB. Skonfigurowałem go by działał jako Time Machine. Tego dysku nie mogę dołączyć do RAID1, bo to inny model i mniejsza pojemność. Poza tym nie jest jest przeznaczony do NASów (dedykowane dyski różnią się nieco, szczególnie od strony firmware dostosowanego pod używanie w macierzach. Czym więcej dysków ma macierz, tym ważniejsze są te parametry. Ale 2–3 dyski to niewiele, więc zwykłe modele pewnie też by sobie poradziły).

Czwarty dysk to WD Elements 2TB. Jest wpięty do NASa przez USB 3.0 i skonfigurowany tak, żeby raz dziennie była na nim robiona kopia zdjęć. W każdej chwili można go odpiąć i podłączyć do jakiegokolwiek Maca, bo używa systemu plików HFS+.

Time Machine na NASie
Time Machine znane jest wszystkim użytkownikom Maców. To oprogramowanie zintegrowane z systemem operacyjnym, które robi kopie zapasowe i pozwala na przywracanie plików z dowolnego okresu – np. mogę wczytać sobie wersję tego artykułu, którą napisałem w zeszłym tygodniu, albo 10 minut temu itd.

tmscreen

Skoro można używać Time Machine przez NASa, zamiast podpinać dysk bezpośrednio do komputera, to oczywiście tak uczyniłem. Niestety używając standardowej metody uruchomienia Time Machine na NASie QNAP miałem problemy. Wolumin przeznaczony na kopie zapasowe czasami był widoczny na moim komputerze, innym razem znikał. Zdecydowanie nie działało to “po applowemu”. Ostatecznie zrobiłem to najprościej jak się dało – po prostu stworzyłem na dysku w NASie katalog na backupy i udostępniłem go w sieci.

shared

Następnie zamontowałem go na komputerze jako AFP i skonfigurowałem tak, żeby się montował automatycznie po włączeniu komputera*. Na koniec wskazałem go w ustawieniach Time Machine. Od tamtej pory zero problemów.

*Preferencje systemowe > Użytkownicy i grupy > Logowanie (w tym miejscu należy dodać wolumin i najlepiej zaznaczyć żeby był ukryty przy uruchamianiu)

Screen Shot 2016-07-04 at 18.22.58

Dodatkowe backupy

Mam jeszcze jeden dysk, na którym jest Time Machine (WD My Passport 2TB), wpinany do komputera przez USB. Wszystkie HDD, o których do tej pory pisałem, mam u siebie w mieszkaniu. Oczywiście istnieje jeszcze dodatkowy backup, czyli szósty dysk, trzymany w innym miejscu. Niestety mam do niego ponad 10 000 km, co jest kompletnie niepraktyczne, więc docelowo muszę go umieścić w innym miejscu…

Jak tylko będzie możliwość podpięcia Internetu z bardzo szybkim uploadem (przynajmniej kilkadziesiąt megabitów/s), to zacznę korzystać z dodatkowej kopii w chmurze. Są serwisy dedykowane właśnie temu zadaniu. Obecnie nie jestem w stanie, net mam zbyt powolny.

Backup zdjęć podczas sesji

Być może od tego akapitu powinienem zacząć cały wpis. W aparacie mam dwie karty pamięci. Zdjęcia zapisują się na obie, więc jest natychmiastowy backup. Gdybym miał aparat bez opcji robienia kopii na drugiej karcie i robił zdjęcia poza studio, to kupiłbym bank danych. To takie urządzenie wielkości dysku, do którego wkłada się kartę pamięci i zostaje automatycznie skopiowana na wbudowany dysk. Dużo wygodniejsze rozwiązanie niż kopiowanie plików na laptopa.

Kiedy aparat mam podpięty do komputera, to zdjęcia zapisują się z pominięciem kart pamięci (jeśli używam Lightroma do tetheringu, to niestety tak się dzieje). Wówczas lądują od razu na dysku twardym, skąd Time Machine kopiuje je na NASa i dodatkowo na dysk USB wpięty do komputera (który również jest Time Machine).

Paranoja?

Nie. Co więcej, jestem pewien, że znajdzie się wiele osób uważających, że jest to niewystarczający backup. Normalnie pewnie miałbym dwa dyski mniej, bo z drugiego Time Machine oraz z dysku USB podpinanego do NASa mógłbym zrezygnować. Są podłączone, bo skoro już je miałem, to lepiej by był z nich pożytek, niż żeby leżały nieużywane. Rezygnacja z pozostałych dysków na pewno nie wchodzi w grę. Ew. sprzedam jeden z tych dysków USB i zamiast niego kupię kolejnego WD RED spiętego w RAID z dwoma pozostałymi REDami. Byłby wtedy 3-dyskowy RAID1, co wydaje się lepszą opcją od obecnej konfiguracji.

Komplikacje

Normalnie na macach dyski są indeksowane, dzięki temu wyszkiwanie odbywa się błyskawiczne. Jednak Dyski sieciowe nie są indeksowane, inaczej komputery podpięte do sieci firmowych by powariowały. Skutkuje to tym, że szukanie na woluminach sieciowych jest powolne i ograniczone niczym na Windowsie, co uniemożliwia sensowne korzystanie z inteligentnych katalogów, czy po prostu z szybkiego używania wyszukiwarki. U mnie to niedopuszczalne, bo chcę mieć błyskawiczny dostęp do zdjęć nie tylko będąc zalogowanym do panelu admina NASa, ale też przeglądając pliki z Findera. Dlatego trzeba wykonać kilka kroków, by indeksowanie włączyć.

Podobno Synology wprowadziło ostatnio do swoich NASów indeksowanie zgodne ze Spotlightem, więc chyba oprogramowanie zrobi wszystko samo, no ale ja mam QNAP, a nie Synology. Chciałem więc indeksować za pomocą komputera, tyle że dysk znajdujący się w sieci.

Poniższe czynności wykonywałem na El Capitan 10.11.15 i woluminie AFP. Na SMB prawdopodobnie by nie zadziałało, więc trzeba by najpierw zamontować wolumin sieciowy właśnie jako AFP. Jeśli już się to zrobi, to należy uruchomić terminal i wpisać komendę: mdutil -vsa

Dzięki niej wyświetlą się informacje o tym, jakie woluminy są indeksowane. Będą tam podane nazwy pod jakimi widzi je system operacyjny (to ważne, bo mogą się różnić od pokazywanych w Finderze, szczególnie gdy jest kilka woluminów nazwanych tak samo – czy to z różnych miejsc w sieci, czy montowanych w systemie różnymi metodami). Woluminy sieciowe nigdy nie są indeksowane, dlatego będzie przy nich napis Indexing disabled.

Trzeba to zmienić. Należy wpisać komendę:

sudo mdutil -i on /Volumes/NazwaWoluminu

Dla pewności można jeszcze raz użyć mdutil -vsa i zobaczyć, że teraz wskazany wolumin sieciowy jest już indeksowany.

Screen Shot 2016-07-04 at 19.06.02

Należy to potwierdzić – uruchomić Spotlight i wpisać cokolwiek. Musi być widoczny pasek postępu.

Screen Shot 2016-06-07 at 19.29.11

Możliwe że paska nie będzie. To znaczy, że w dalszym ciągu jest problem do rozwiązania. Trzeba wtedy wejść w Preferencje systemowe > Spotlight > Prywatność i dodać tam wolumin, który wymaga zindexowania, a następnie go z tej listy usunąć (można to zrobić od razu, nie trzeba czekać). Indeksowanie powinno się rozpocząć, ew. ponowne uruchomienie systemu nie zaszkodzi. Można też użyć w terminalu komendy, która wymusza zrobienie indeksu od nowa:
sudo mdutil -E /Volumes/NazwaWoluminu

U mnie pomimo że indeksowanie zostało przeprowadzone, to ewidentnie było niepełne. Zainstalowałem więc bezpośrednio na NASie aplikację Qsirch, która służy do szybkiego wyszukiwania z poziomu panelu administracyjnego QNAP. Chyba w jakiś sposób współgra to ze Spotlightem, bo dopiero po połączeniu obu zabiegów zaczął on działać jak powinien. Z drugiej strony są jakieś niewielkie szanse, że to zbieg okoliczności. Uwaga – program wymaga NASa z minimum 2GB RAMU, a wskazane jest 4GB.

Teraz mogę przeszukiwać dyski sieciowe w Finderze, tak samo jak lokalne. Mam tylko wątpliwości czy Spotlight będzie aktualizował dane na bieżąco, czy może będę musiał przebudowywać index ręcznie po tym jak dodam nowe pliki, albo wprowadzę inne zmiany. Gdyby był problem, to po prostu stworzę jakąś akcję, która będzie robiła reindex codziennie.

Uwaga: Nie jestem żadnym specem od takich rzeczy, więc nie pytajcie mnie o dodatkowe info w tym temacie, bo i tak nie będę w stanie pomóc. W necie znalazłem wiele poradników, ale nie działały u mnie, bo dotyczyły starych systemów, albo po prostu moja wiedza była za mała. W końcu udało mi się połączyć wszystkie informacje tak by zadziałało na El Capitan i opisałem to powyżej.

Podsumowanie

Jeśli są tu osoby nie robiących backupów (słyszałem że tacy ludzie na prawdę jeszcze istnieją, ale może to tylko legendy), to może ten wpis ich trochę zmobilizuje to przemyślenia sprawy. Jakakolwiek forma NASa to bardzo dobry wybór – czy rasowa maszyna zarządzająca przy okazji multimediami w całym domu, czy niewielka obudowa z dwoma dyskami spiętymi w RAID. Zresztą nawet pojedynczy dysk, na który ręcznie się będzie kopiowało pliki, jest dużo lepszy niż nic.

Recent Posts