JustPaste.it

Jak ochronić się przed utratą danych?

Coraz częściej w naszych komputerach przechowujemy tzw. wrażliwe dane, których niekontrolowana utrata może się dla nas źle skończyć. Dowiedz się jak tego ukniknąć.

Coraz częściej w naszych komputerach przechowujemy tzw. wrażliwe dane, których niekontrolowana utrata może się dla nas źle skończyć. Dowiedz się jak tego ukniknąć.

 

 

Dysk twardy

 Z problemem utraty dostępu do danych borykali się już starożytni, od kiedy wynaleziono pismo. Gliniane tabliczki oraz w późniejszym czasie papirus nie były idealnym materiałem na przechowywanie zapisanych na nich informacji. Podobnie jak i dzisiejsze nośniki cyfrowe były one narażone na wiele destrukcyjnych czynników (takich jak upływ czasu, ogień czy kradzież), mogących je trwale uszkodzić i uniemożliwić odczyt zawartych na nich danych.

 

W dzisiejszych czasach, w dobie gigantycznego rozwoju masowego przetwarzania informacji cyfrowych szerszym zagadnieniem jest problem ochrony danych; gdzie oprócz sytuacji w której nastąpiła utrata dostępu do informacji występuje inne zagrożenie - a mianowicie przedostanie się danych bez naszej wiedzy lub zgody do osób trzecich - często ma to postać pospolitej kradzieży, wyłudzenia czy włamania. Jednakże tym kontekstem nie będziemy się aktualnie zajmować i skupimy się w skrócie na problemie zabezpieczenia się przed fizycznym lub logicznym aspektem utraty danych (np. awarii nośnika).

 

              Na początku należy stwierdzić, że w teorii nie występują rozwiązania dające nam 100% bezpieczeństwa – każda technologia może ulec awarii pozbawiając nas dostępu do danych. Natomiast w praktyce stosuje się dwa rozwiązania:

 

1. układy zmniejszające do możliwego minimum szansę na utratę danych (macierze, zabezpieczenia przeciwprzepięciowe, zasilacze awaryjne, itp.)

 

2. dywersyfikacja źródeł danych – czyli po prostu systematyczne wykonywanie ich kopii.

 

W znakomitej większości przypadków, tzn. takich które nie wymagają błyskawicznego dostępu do danych oraz zakładają określony margines czasowy w sensie ich aktualności idealnym rozwiązaniem jest robienie kopii zapasowych. W tego typu sytuacjach kopie zapasowe robimy w odstępach czasowych odpowiadających naszym potrzebom (raz na miesiąc, raz na tydzień czy nawet raz dziennie – jeżeli ktoś codziennie pracuje w sposób efektywny przez kilka godzin). W praktyce jest to idealne rozwiązanie dla tego typu osób lub firm – jednakże musi być przestrzeganych kilka żelaznych zasad:

 

- systematyczność – jej brak jest najczęstszym „grzechem” i przez to powodem utraty dostępu do

  danych (dla przykładu: księgowy małej lub średniej firmy nie powinien zakończyć pracy zanim nie

  wykona kopii danych z całego dnia lub tygodnia)

- każdorazowa weryfikacja wykonanych kopii – praktyka pokazuje, że samo wykonanie kopii nie

  zawsze jest jednoznaczne z zamierzonym efektem (czasami się zdarza, że ludzie wykonują kopie na

  zniszczonych dyskietkach lub taśmach, po czym okazuje się że krytyczne dane nie są już nagrywane

  na ww. nośniki od np. kilku miesięcy).

- maksymalna dywersyfikacja źród kopii pod względem rodzaju nośnika i jego umiejscowienia –

  zrobienie kopii danych w obrębie jednego np. komputera czy nośnika (inny katalog, inna partycja,

  drugi dysk) w praktyce nie powoduje znaczącego zwiększenia poziomu bezpieczeństwa. W wypadku

  awarii np. zasilacza uszkodzeniu mogą ulec wszystkie elementy wewnątrz komputera. Przyjmuje się,

  że idealnym rozwiązaniem jest posiadane trzech źródeł danych nie powiązanych ze sobą w  

  jakikolwiek sposób i przechowywanych oddzielnie np. źródłowy dysk twardy, płyta CD/DVD oraz

  np. pamięć wymienna (PenDrive). W takim układzie ryzyko utraty krytycznych danych w praktyce

  spada do zera.

 

 Układy zmniejszające szanse na wystąpienie awarii (np. macierze, układy klastrowe w sieci) stosowane są głównie przez duże firmy gdzie przetwarzane są jednocześnie bardzo duże ilości danych oraz nieakceptowana jest przerwa w dostępie do nich (banki, korporacje, giełdy, duże firmy produkcyjne itp.) W tego typu rozwiązaniach stosuje się „multibackup online” (dane są archiwizowane na w na bieżąco czasie rzeczywistym) i jednocześnie w wielu miejscach. Jednakże takie rozwiązania są często bardzo kosztowne (przeciętnie jest to kilkadziesiąt tyś. PLN – w ekstremalnych przypadkach np. Giełda Papierów Wartościowych posiada system wart nawet do kilkunastu mln PLN) i muszą mieć swoje uzasadnienie ekonomiczne w wypadku wystąpienia potencjalnej awarii.

 

Jeżeli już jednak się zdarzy, że z jakiejkolwiek przyczyny utracimy dostęp do danych i co gorsza nie posiadamy kopii nie należy załamywać rąk. W większości tego typu przypadków dane można odzyskać pod warunkiem przestrzeganiu kilku żelaznych zasad:

 

- nie należy wpadać w panikę – powoduje ona często, że zaczynamy wykonywać pewne

  nieprzemyślane kroki, które niestety w większości przypadków znacznie utrudnią lub wręcz

  uniemożliwią dotarcie do utraconych danych.

 

- należy zrobić rachunek strat i zysków – jeżeli dane są zbyt cenne abyśmy mogli pozwolić sobie

  na ich utratę nie należy podejmować jakichkolwiek samodzielnych działań lub zlecać tej

  pracy innym osobom tzw. „złotym rączkom” czy też innym domorosłym informatykom.

  Statystyki pokazują, że działalność takich osób w prawie 70% przypadków doprowadza do

  nieodwracalnego zniszczenia danych. W takich sytuacjach należy się zgłosić do renomowanych

  firm w tym zakresie. Koszty odzyskania danych będą oscylować w granicach od kilkuset

  do kilku tyś. PLN.

 

Jeżeli już z jakiegoś powodu zdecydujemy się na samodzielne odzyskiwanie danych (brak funduszy lub dane nie są warte aż takiej kwoty) należy pamiętać o kilku podstawowych zasadach:

 

- musimy dotrzeć do źródła problemu – tzn. postarać się odpowiedzieć co się stało – tylko wtedy

  możemy postawić trafną diagnozę co należy zrobić aby odzyskać dane,

- należy pamiętać, że jakakolwiek modyfikacja zawartości dysku może doprowadzić do

  zniszczenia danych (prosty przykład: usunięcie danych, założenie nowej partycji lub format

  dysku nie niszczą w sposób nieodwracalny (fizyczny) danych – dane zostają zniszczone dopiero

  w procesie ich ponownego nadpisania),

- eksperymentowanie z wymianą elektroniki dysku jest procesem obarczonym dużym stopniem

  ryzyka – większość producentów nie podaje oznaczeń umożliwiających bezbłędną identyfikację

  dysku jeżeli chodzi o wersję biosu czy też układ podlinkowania biosu lub układu głowic

  natomiast zastosowanie błędnej elektroniki może doprowadzić w krańcowych przypadkach do

  nieodwracalnego uszkodzenia struktury serwisowej dysku.

- powyższe wskazówki są skuteczne w przypadku utraty dostępu do danych z przyczyn

  logicznych; w sytuacjach gdy występuje uszkodzenie mechaniczne nośnika lub uszkodzenie

  strefy serwisowej w praktyce jesteśmy bezradni – nawet niewinne otwarcie dysku (oprócz

  warunków laboratoryjnych) lub manipulacja w obszarze strefy serwisowej (bez odpowiedniej

  wiedzy i narzędzi) w praktyce powoduje nieodwracalną utratę danych.

 

Autor: Artur Skrouba