Każdy facet cieszy się nowymi zabawkami. Lubię dzielić się radością, więc dziś kilka słów o serwerze Synology DS220+, który kupiłem. Czyli wpis z pogranicza snobizmu i paranoi.

Po pierwsze – obiecany snobizm

Udało mi się zakończyć projekt, nad którym siedziałem wieczorami kilka miesięcy. Kasa od zleceniodawcy wpłynęła więc wybrałem się na… porównywanie cen dysków i serwerów NAS (linki do Ceneo). A potem na zakupy do pobliskiego Allegro. Wróciłem z tym co na fotce poniżej.

Po drugie – obiecana choroba psychiczna

Otóż od dawna mam lekką paranoję na punkcie kopii zapasowych. Staram się mieć kopie WSZYSTKIEGO. A nie jest to wcale proste zagadnienie, kiedy pracujesz regularnie na 4-5 komputerach, masz 4 dyski chmurowe i miliony (to nie przenośnia) poupychanych plików to tu to tam.

Kopie zapasowe po taniości

Do tej pory korzystałem z zestawu oprogramowania, sprzętu i usług:

  • Veeam Free Windows Agent,
  • pojemny zewnętrzny dysk USB,
  • iDrive 10TB na zaszyfrowane kopie zapasowe kopii zapasowych

Tak, wiem, trzeci punkt brzmi głupio i potwierdza paranoję – ale uwierzcie, zasada 3-2-1 stosowana w kopiach zapasowych nie wzięła się znikąd.

Nie było to wygodne i przede wszystkim musiałem pamiętać, aby ten dysk USB raz na jakiś czas podłączyć, aby Veeam zrobił robotę (swoją drogą bardzo dobry soft).

Kopie zapasowe „like a boss”

Z wiekiem robię się bardziej wygodny i zapominalski. Przyszedł czas, aby cały proces nieco zautomatyzować. Dlatego właśnie NAS. Czyli Network Attached Storage. Czyli taki pojemny dysk ale wpięty w domową sieć i wyposażony w swój system operacyjny, na którym możemy instalować aplikacje (które dostarcza Synology w czymś co przypomina AppStore ze smartfonów). Czyli w zasadzie serwer. A na nim między innymi dedykowana aplikacja do centralnego przechowywania kopii zapasowych – Active Backup for Business.

Działa to tak, że na NAS instalujemy wspomniany pakiet a na „chronionych” komputerach w domu instalujemy specjalne „agenty” działające w tle. Kilkanaście minut konfiguracji i – voilà! – samo się robi. Codziennie, albo co godzinę, albo co tydzień – jak tam sobie ustawisz. Testuję póki co wersję codzienną i obserwuję zajętość dysków oraz obciążenie komputerów i NAS’a w trakcie wykonywania kopii. Zajęcie równie fascynujące co dla niektórych łowienie ryb albo sprawdzanie czy ile pomidorów pojawiło się na krzaczkach. Każdemu jego porno jak mawiają.

Dlaczego akurat Synology i akurat model DS220+?

Wybór takiego serwera i dysków do niego to wcale nie prosta rzecz. Ja spędziłem w excelu i na Ceneo kilka godzin zanim mój wybór padł na:

Czemu taki zestaw? Bo to obecnie jeden z najbardziej optymalnych zakupów. Oczywiście, jeśli macie dokładnie takie potrzeby jak ja, czyli:

  • wystarczy wam (realnie) 3,5TB miejsca (pamiętajcie, że producenci dysków nadal oszukują na bajtach)
  • chcecie mieć pewność, że jak jeden dysk padnie to nie stracicie danych
  • chcecie mieć nie tylko miejsce na dane ale też serwer zdolny uciągnąć kilka kontenerów Docker, czy jakąś maszynę wirtualną.

W innym wypadku możecie wydać znacznie mniej. Lub więcej. Zależy czego oczekujecie.

Przy okazji – 2 niesamowite źródła wiedzy i porównań dotyczących serwerów NAS i dysków do nich:

Jak się toto sprawuje?

Poniżej przykład z pierwszego dnia. Do wykonania kopii zastosowałem rozwiązanie jakie dostajemy w pakiecie z NAS od Synology (choć nie z każdym modelem) czyli Active Backup for Business. Pozwala ona wykonywać kopie zapasowe całych komputerów z Windows, bez przerywania ich pracy (podobnie jak Veeam), wykorzystując VSS.

Najlepsze jest to, że wykonywanie kopii nie wpływa jakoś mocno na obciążenie systemu i nie musimy przerywać pracy. Dowód poniżej.

  • Na górze widać listę trwających procesów tworzenia kopii całych maszyn, na liście są dwa domowe komputery. Jeden z komputerów wpięty jest kablem (port 1Gb/s) w ten sam przełącznik co NAS (sam nas jest wpięty 2 kablami), drugi komputer działa sobie po WiFi (ale po drodze do NAS ma nie tylko router ale dodatkowy extender TPLink OneMesh)
  • Wykresy po lewej pokazują obciążenie pierwszego komputera – na przykład około 20% dysku SSD, 30% CPU i transfer na poziomie 800-900mbps. Na komputerze można było swobodnie pracować a cały proces trwał za pierwszym razem pół godziny.
  • Wykres po prawej to obciążenie CPU/RAM oraz sieci samego NAS’a. Transfer do NAS wahał się od 20 do 120MB/s, a zazwyczaj był w okolicy 80-120MB/s.
  • Komputer, którego kopię robiłem po WiFi generował ruch na poziomie około 100mbps a to z uwagi na dość dużą odległość od routera (i jeden extender po drodze). Jego kopia zapasowa trwała ponad godzinę.

Oczywiście kolejne kopie wykonują się znacznie krócej (zazwyczaj 5-15 minut) jako że do NAS są kopiowane tylko nowe lub zmienione od ostatniej kopii pliki.

Ile miejsca potrzeba na kopie zapasowe?

To podchwytliwe pytanie. Przykładowo – moje 2 komputery mają w sumie 3 dyski SSD. Na obu są odpalone chmurowe dyski Google, OneDrive i Nextcloud. Wygląda to z grubsza tak

Patrząc na powyższe można by założyć, że na obu kompach jest w sumie około… 626,6GB danych? Więc wystarczy nam dysk 1TB aby mieć ich kopię? Nie do końca. W zależności od ustawień częstotliwości kopii, ilości przechowywanych wersji, dostępności technologii deduplikacji czy kompresji – wielkość kopii po tygodniu czy miesiącu może być bardzo różna,

Po kilkunastu dniach wykonywania się tych kopii i przy założeniu, że NAS przechowuje ostatnie 3 kopie zapasowe każdego kompa sytuacja z zajętością dysku wygląda tak:

Póki co podstawowa funkcja dla której kupiłem ten sprzęt działa. Pora zabrać się za zgłębianie tematów dodatkowych. Na początek chcę przyjrzeć się konteneryzacji i hostowaniu stron www i aplikacji oraz możliwości zastąpienia chmur plikowych (Google, Nextcloud, OneDrive) za które obecnie dodatkowo płacę. Do przeczytania w kolejnych wpisach.

AKTUALIZACJA Z 2023-06-01

Po pewnym czasie zmieniłem nieco parametry retencji na kopiach zapasowych, tak aby sprawdzić, czy zużycie dysku jakoś gwałtownie wzrośnie.

Po około miesiącu od tej zmiany wykorzystanie przestrzeni wygląda następująco:

AKTUALIZACJA Z 2024-02-01

Postanowiłem sprawdzić jak tam moje kopie zapasowe na serwerze NAS Synology. Odkryłem, że deduplikacja oszczędza mi ponad 800GB miejsca na dyskach. Prawdopodobnie wynika to z tego, że na obu domowych komputerach są te same pliki z OneDrive, Nextcloud czy samego Synology Drive. Dodatkowo sytuację komplikować może fakt, że zacząłem wykonywać backup wydzielonego katalogu z Synology Drive na OneDrive, co doprowadzi mnie pewnie do jakiegoś zapętlenia, którego nie potrafię przewidzieć. A ponieważ ustawiłem ten backup jako szyfrowany to OneDrive zaczęło mi wysyłać maile, że wygląda to na ransomware, który szyfruje pliki. A ponieważ zaczął wysyłać jakoś miesiąc po tym jak to ustawiłem to dostałem mikro zawału zanim sobie o tym przypomniałem. No cóż. Takie to życie informatyka sklerotyka.

Ku potomności zostawiam zrzut ekranu.

Podobało się?

Postaw mi kawę na buycoffee.to

Subskrybuj powiadomienia o nowych wpisach.

Podobne wpisy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *