To oczywiste i chyba nie trzeba tego faktu specjalnie udowadniać, że ilość danych, jakie tworzymy rośnie. Sposobów na ich przechowywanie jest sporo, a producenci nośników kuszą nas coraz większą pojemnością, szybkością i - dla odmiany - coraz niższą ceną. Jaki nośnik wybrać jeśli zależy nam na niezawodności i bezpieczeństwie danych? Przygotowaliśmy dla Was porównanie niezawodności różnych nośników mamy do wyboru?Nośniki optyczne, takie jak płyty CD-R, DVD-R, czy Blue-RayDyski HDD i SSDPamięć FlashChmuraTaśmy magnetyczneNośniki optyczneJeszcze kilka lat temu płyty CD i DVD były jednymi z najpopularniejszych nośników wykorzystywanych do przechowywania dużej ilości danych - zwłaszcza wśród użytkowników domowych. Wynikało to ze stosunkowo wysokich cen dysków HDD, a tym bardziej SSD i ich małej pojemności. W porównaniu z nimi dyski optyczne były konkurencyjne, zarówno w kontekście ceny, jak i oferowanej pojemności. Producenci płyt deklarowali także stosunkowo długą żywotność tworzonych przez siebie nośników, co jednak dosyć szybko zostało zweryfikowane przez rzeczywistość. W zależności od producenta i wykorzystanej technologii, płyta powinna służyć nam od 5 do nawet 200 lat (nie wspominając o płytach z trawionego szkła, które w teorii powinny przetrwać 1 000 do 1 500 lat!), jednak czas użytkowania uzależniony jest od tak wielu czynników, że powinniśmy być przygotowani na to, że płyta przestanie być możliwa do odczytania w każdej chwili - i to raczej wcześniej niż grozi nośnikom optycznym? Przede wszystkim nasze niechlujstwo - przechowywanie w nieodpowiednich warunkach, zarysowywanie, zatłuszczenie (kto z nas nie chwytał płyt, pozostawiając na nich pełny zestaw śladów daktyloskopijnych?) to powszechne grzechy użytkowników. Ale okres użytkownika płyty skraca także skąpstwo producentów, którzy wykorzystują materiały niskiej jakości, oszczędzają na grubości warstw ochronnych, przyspieszając tym samym proces utleniania się warstwy tym problemem może okazać się także technologia. Czy za kilka, kilkanaście lat nadal będziesz posiadał sprzęt, który odczyta dane z posiadanych przez Ciebie płyt? Nowe komputery często w ogóle nie mają stacji dysków, a nawet jeśli tak, to nie obsłużą każdego formatów. CD-R, CD-RW, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+/–R DL - każdy z tych formatów oznacza inną technologię i inny sposób odczytu, może się więc okazać, że niedługo nie uda Ci się zdobyć odpowiedniego czytnika do swojej i SSDRozwój technologii HDD i SSD doprowadził do znacznego obniżenia cen tego typu nośników, przy równoczesnym wzroście ich pojemności, co sprawia, że dyski optyczne przestały być opłacalnym nośnikiem danych. Skoro bowiem możemy kupić dysk o pojemności 1, a nawet 2 TB za kilkaset złotych, nagrywanie płyt przestało mieć jakikolwiek sens. Zarówno klasyczne dyski HDD, jak i SSD, a także ich hybrydy (SSHD) nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania czy archiwizowania danych są praktycznie nieograniczone. Jeśli przechowujemy większą ilość danych i chcemy mieć do nich dostęp online, możemy rozważyć zakup magazynu danych w celu stworzenia prywatnej chmury (koszt 6 TB w tej technologii to około 3 500 zł). Oczywiście czym bardziej rozbudujemy naszą infrastrukturę, tym więcej będziemy musieli ponosić związanych z tym kosztów - zakupu sprzętu, energii elektrycznej, dyski także nie zagwarantują wieczności naszym danym. W przypadku zapisu magnetycznego na dyskach HDD, zachodzi zjawisko zaniku ładunku magnetycznego. Nie jest to może szybko postępujący proces - około 1% rocznie, ale w perspektywie czasu, może być groźny dla naszych danych. Również dyski SSD nie zawsze gwarantują pełne bezpieczeństwo i niezawodność - szczególnie istotne są tutaj zakresy temperatur, w jakich urządzenie pracuje. Np. podniesienie temperatury o 5 C w pewnych warunkach może zmniejszyć o połowę gwarantowany czas przechowywania danych (choć sytuacja taka musi jeszcze spełniać dodatkowe warunki i jest raczej rzadko spotykana, o czym przekonują specjaliści Seagate’a, dementujący Internetowe plotki na ten temat). Również duże wahania temperatur mogą być dla takiego dysku i zapisanych na nim danych mordercze. Pamiętać trzeba także, że każdy dysk ma określoną żywotność, ograniczony cykl życia, co oznacza, że nie ma dysku, który będzie działał zawsze. Odpowiednia infrastruktura jest oczywiście w stanie utrzymywać zdolność operacyjną i uratować nasze dane - nawet w przypadku jeśli jeden (a nawet więcej) dysków ulegnie danych na pendriveMożna chyba uznać, że ten typ pamięci na stałe zagościł w naszych kieszeniach. A wszystko za sprawą małych kart SD i pamięci USB, czyli popularnych pendrive’ów, które pozwalają nam w bardzo wygodny sposób przechowywać i przenosić znaczne ilości danych. Podstawowym minusem tej technologii jest ograniczona liczba cykli zapisu i kasowania, po przekroczeniu której, dochodzi do nieodwracalnego uszkodzenia wykorzystanych zagrożenie wiąże się z największą zaletą nośników z pamięcią flash - ich rozmiar i poręczność, sprawiają, że równie łatwo jak je przenosić, można je również zgubić. Malutka karta SD uwielbia się gubić i wpadać w szczeliny z których nie jesteśmy w stanie jej wyjąć. Bywa też łakomym kąskiem (dosłownie) dla małych dzieci, lub psów, które lubią je gryźć. Pamięć USB pada z kolei często ofiarą uszkodzeń mechanicznych - głównie wynikających z nieumiejętnego wyjmowania z portu USB, ale także przypadkowego uderzenia, kopnięcia, zmiażdżenia. Pamiętać przy tym należy, że odzyskiwanie danych z tego typu nośników, jest znacznie bardziej skomplikowane niż w przypadku tradycyjnych nośników z oferty dostawców usług w chmurze, którzy gwarantują przestrzeń dyskową dostosowaną do naszych potrzeb, jest rzeczywiście wygodne. Większość popularnych dostawców zapewnia nam darmową usługę podstawową - nawet 500 GB pamięci masowej online do naszej dyspozycji. Nasze dane są w ten sposób zabezpieczone - ich kopie znajdują się w rozproszonych lokalizacjach na całym świecie, dzięki czemu ryzyko ich utraty jest jednak musimy zarządzać sporą ilość danych, cena takiej usługi może znacznie przekroczyć koszt własnej infrastruktury - przykładowo cena 10 TB w popularnej usłudze Google Drive to około 1200 USD, czyli ponad 4 tyś zł rocznie! Ponadto przechowywanie danych w chmurze może być postrzegane jako bardziej ryzykowne - w momencie kiedy wrzucamy nasze dane do Internetu, tracimy nad nimi kontrolę i zwiększamy możliwość wycieku danych. W związku z tym nie rekomenduje się wykorzystywania tej technologii do przechowywania danych wrażliwych i dobra taśmaWyraźnie widać, że czym większy rozmiar danych, które musimy przechowywać, tym większe koszty z tym związane. Jest to ogromny problem, który przede wszystkim dotyka przedsiębiorstwa, może w poważnym stopniu ograniczać ich rozwój - eksplozja ilości administrowanych i przechowywanych danych prowadzi bowiem do lawinowego wprost wzrostu kosztów utrzymywania infrastruktury. Dużym wyzwaniem jest więc znalezienie takiego rozwiązania, które zagwarantuje możliwie jak najlepszy stosunek ceny do pojemności i wydajności. W tym kontekście swoją drugą młodość przeżywają obecnie taśmy magnetyczne. Rozwiązanie to jest sprawdzone i stabilne - od dziesięcioleci wykorzystywane jest do przechowywania danych, cieszy się opinią bezpiecznego i bezawaryjnego. W czasach śrubowania parametrów sprzętu, a przede wszystkim szybkości, taśmom wróżono szybki koniec. Nic jednak bardziej mylnego - okazuje się bowiem, że dwie cechy tego rozwiązania mogą zadecydować o jego losie - ogromna pojemność ( najnowsze prototypy mogą przechowywać do 220 TB na jednej taśmie!) idzie w parze z energooszczędnością. Taśma zużywa 200-krotnie mniej energii niż twardy dysk… Idealne rozwiązanie do przechowywania i archiwizowania ogromnej ilości danych.
Ogólnie rzecz biorąc, urządzenia pamięci masowej są podzielone na główną i dodatkową pamięć masową. Każdy komputer ma zwykle te dwa rodzaje nośników pamięci. Jeden służy do przechowywania krótkoterminowego, a drugi do przechowywania długoterminowego. Sprzętem sklasyfikowanym jako pamięć podstawowa jest pamięć RAMJedna z sześciu kart pamięci jednostki pamięci masowej PDHU na pokładzie sondy Gaia. Fot. SYDERAL SA Podobnie jak w komputerach na Ziemi, tak w urządzeniach wysyłanych w przestrzeń kosmiczną gromadzonych jest coraz więcej danych. Stąd naukowe sondy kosmiczne oraz wykonujące szereg zadań satelity krążące wokół planety muszą być wyposażane w bezpieczne, trwałe i pewne nośniki pamięci. Przełomem może być tutaj szerokie wdrożenie zastosowania pamięci typu Flash, nad czym intensywnie pracuje dla ESA firma SYDERAL Polska z Gdańska. Stosowane powszechnie w komputerach nośniki pamięci służą zapisywaniu programów i przechowywaniu danych. Tego rodzaju pamięci dzielą się na dwa podstawowe typy: ulotne oraz nieulotne (trwałe). Pamięci ulotne Do pamięci ulotnych zaliczają się na przykład te reprezentujące technologie SRAM czy SDRAM. Przykładem tego rodzaju pamięci, wykorzystywanej chociażby w komputerach osobistych, jest pamięć operacyjna. Najbardziej podstawową cechą pamięci ulotnej jest to, że dla swojego działania potrzebuje ona ciągłego zasilania energią elektryczną. W momencie odłączenia zasilania wszystkie dane z takiej pamięci znikają. Co za tym idzie, pamięci ulotne cechują się generalnie większym poborem mocy niż pamięci nieulotne. Należy jeszcze dodać, że nie ma tutaj określonego limitu liczby cykli nagrywania i kasowania danych, po którym taka pamięć ulegałaby zużyciu. Pamięci ulotne cechuje również prostsze niż w przypadku pamięci trwałych zarządzanie przepływem danych oraz mniejsza niż w przypadku tych drugich pojemność nośnika pamięci przypadająca na jednostkę objętości. Pamięci nieulotne Główną zaletą pamięci nieulotnych jest fakt, że zmagazynowane na nich dane nie ulegają skasowaniu wraz z odcięciem dostępu energii elektrycznej do nośnika pamięci. W związku z tym mogą potrzebować tej energii istotnie mniej. Przykładem takiej pamięci są karty pamięci, na przykład te działające w standardzie Secure Digital bądź Memory Stick. Charakteryzuje je to, że nośniki o dużej pojemności mogą mieścić się w małej objętości. W stosunku do pamięci ulotnych dużo bardziej skomplikowany jest tutaj sposób zarządzania danymi. Przykład pamięci nieulotnej stanowi pamięć Flash, będąca następcą pamięci EPROM. Tego typu pamięć ma ograniczoną żywotność, jej komórki ulegają zużyciu. Zwykle można na nich wykonać do 100 tys. operacji zapisu/kasowania. W przestrzeni kosmicznej Pamięci masowe tworzone pod kątem pracy w surowych warunkach kosmicznych muszą rzecz jasna cechować się szczególną wytrzymałością. Wskazana jest tu między innymi zdolność do pracy w skrajnych temperaturach. Dodatkowo, nośnik takiej pamięci pracujący na pokładzie statku kosmicznego musi być zabezpieczony przed szkodliwym dla elektroniki działaniem promieniowania kosmicznego. Sprzedaż nośników pamięci Flash stale się rozwija. Znajdują one coraz szersze zastosowanie również w sektorze kosmicznym. W kontekście rozwoju swoich programów kosmicznych Europa będzie potrzebować tego typu pamięci masowych dla swoich licznych satelitów. Weźmy choćby przykład programu obserwacji Ziemi Copernicus Komisji Europejskiej. Na jego dalszy rozwój zostało niedawno przeznaczone kolejne 96 mln euro. Operujące w ramach programu Copernicus satelity Sentinel nieustannie gromadzą ogromne ilości danych pochodzących z obserwacji planety, które to dane są następnie przesyłane na Ziemię. Wykorzystuje się je bardzo szeroko w administracji, rolnictwie czy zarządzaniu kryzysowym. Pamięć masowa może też znajdować niezwykle istotne zastosowanie w misjach naukowych ESA, kiedy to dedykowane sondy kosmiczne gromadzą informacje o egzoplanetach czy gwiazdach Drogi Mlecznej. Przykładem misji poświęconej temu ostatniemu celowi jest Gaia. Realizująca ją sonda sporządza dokładną trójwymiarową mapę naszej Galaktyki. Na pokładzie sondy Gaia znajduje się jednostka pamięci masowej (ang. Payload Data Handling Unit (PDHU)), od szwajcarskiej firmy SYDERAL. Zadaniem jednostki PDHU jest przetwarzanie pozyskiwanych danych, ich sortowanie, a następnie zapisywanie w pamięci wykonanej w technologii SDRAM. Mamy tu więc do czynienia z pamięcią ulotną. Jednostka pamięci masowej Payload Data Handling Unit (PDHU) dla sondy Gaia. Fot. SYDERAL SA Wszystko wskazuje natomiast na to, że przyszłością misji kosmicznych jest jednak wykorzystanie pamięci nieulotnych typu Flash. Przemawia za tym przede wszystkim większe bezpieczeństwo gromadzonych danych i brak ryzyka ich utraty na skutek przerwy w zasilaniu nośnika pamięci. Nie bez znaczenia jest również możliwość zmieszczenia nośnika pamięci o większej pojemności w mniejszej objętości oraz mniejsze zapotrzebowanie pamięci Flash na energię elektryczną. Wyzwaniem pozostaje natomiast w tym przypadku bardziej złożone sterowanie tego typu pamięcią polegające na kontroli równomiernego zużycia bloków pamięci, detekcji uszkodzonych obszarów pamięci, czy też zaimplementowanie kodowania korekcyjnego. Patrząc z szerokiej rynkowej perspektywy jasnym jest, że popyt na wytrzymałe i niezawodne nośniki pamięci dla misji kosmicznych będzie rósł. Jak już powyżej nakreślono, będzie to widoczne szczególnie przy realizacji coraz bardziej złożonych misji naukowych oraz pośród gromadzących ogromne ilości danych satelitów obserwacji Ziemi. Tą ostatnią dziedziną zajmuje się, obok samej Unii Europejskiej, coraz więcej firm prywatnych, jak choćby Planet, ICEYE, Spire Global, DigitalGlobe, UrtheCast czy Airbus Defence & Space. Z kolei niedawny przykład na to, jak ważna może być odpowiednia pamięć w sondzie kosmicznej, pochodzi z misji NASA New Horizons. Dnia 1 stycznia 2019 r. sonda ta minęła odległą planetoidę z pasa Kuipera, a w drugiej połowie tego miesiąca New Horizons przesłała na Ziemię dobrej jakości zdjęcie odwiedzonego obiektu. Obraz ten wcześniej został skompresowany, sformatowany i zapisany właśnie w pamięci typu Flash. Nisza dla polskiego gracza Zastosowanie w misjach kosmicznych pamięci masowych typu Flash wciąż jest nowym trendem. W Europie zajmuje się tym bardzo nieliczna grupa przedsiębiorstw. W gronie tych firm na europejskim rynku jest jeszcze miejsce dla kolejnego podmiotu. W zaistniałej sytuacji owo miejsce skutecznie stara się zagospodarować SYDERAL Polska. To firma dostarczająca rozwiązania z zakresu elektroniki i oprogramowania dla przemysłu kosmicznego. Jej misją jest dostarczanie wysokiej jakości produktów oraz otwartość na nowe rozwiązania w branży inżynierii kosmicznej. Jednostka PDHU po integracji z sondą Gaia. Fot. Astrium Przedsiębiorstwo SYDERAL Polska zdobyło w ramach ESA PLIIS (Polish Industry Incentive Scheme) kontrakt ESA na opracowanie projektu urządzenia „Controller for Flash Mass Memory (FMM)”. Realizacja zadania rozpoczęła się w styczniu 2019 r. i zakończy się w pierwszej połowie roku 2020. W ramach projektu przedsiębiorstwo koncentruje się na rozwinięciu takiego modułu pamięci, który będzie mógł stanowić podstawę dla rozwiązań opracowywanych pod kątem przyszłych misji kosmicznych. Z takiej podstawy będzie można skorzystać przy budowie pamięci masowych oraz modułów pamięci zintegrowanych bądź to bezpośrednio z komputerem pokładowym statku kosmicznego bądź z konkretnym instrumentem na pokładzie takiego statku. W ramach projektu dotyczącego kontrolera FMM dla ESA chodzi o: zaprojektowanie architektury o skalowalnej pojemności pamięci; opracowanie kontrolera do pamięci Flash (FPGA); implementację zabezpieczenia danych. Cele te będą zrealizowane poprzez zaprojektowanie, skonstruowanie i integrację oraz przeprowadzenie testów modelu demonstracyjnego. Rozwiązanie ma osiągnąć poziom gotowości technologicznej TRL-4, co oznacza że „działanie komponentu technologii lub jej podstawowych podsystemów zostało sprawdzone w warunkach laboratoryjnych”. Docelowo, produkcja kontrolera będzie odbywać się w Polsce, przy zaangażowaniu krajowego partnera. Praca nad rozwojem tego komponentu przyczyni się do rozwijania nad Wisłą ważnej, innowacyjnej technologii, która znajdzie zastosowanie nie tylko w sektorze kosmicznym. Przyszłość SYDERAL Polska ubiega się również w ESA o kolejny kontrakt w ramach PLIIS. Tym razem chodzi o zadanie „Scalable Mass Memory Module”, co byłoby de facto kontynuacją obecnie realizowanego projektu. O nowy kontrakt firma stara się jako członek konsorcjum, które stworzyła specjalnie do tego celu wspólnie z niemieckim OHB System. Wstępne wymagania, zawarte we wspólnej ofercie obu podmiotów dla ESA, zostały opracowane na podstawie doświadczeń nabytych przy realizacji misji obserwacji Ziemi prowadzonych przez OHB. Dzięki temu proponowane przez konsorcjum rozwiązanie będzie odpowiednio dopasowane do potrzeb rynku satelitów w najbliższych latach. Już przy obecnie realizowanym projekcie FMM SYDERAL Polska dąży do dopasowania tworzonego systemu pod kątem wymagań otrzymanych od OHB. W ten sposób polskie przedsiębiorstwo może osiągnąć dla swoich podzespołów pełną zgodność z technologicznymi oczekiwaniami głównych wykonawców (ang. primes) systemów satelitarnych na europejskim rynku. To daje podstawy do obustronnej dobrej współpracy i niezagrożonej kontynuacji rozwoju nośników pamięci masowej Flash dla zastosowań kosmicznych. Tekst powstał we współpracy z SYDERAL Polska. Nośniki pamięci w sklepie internetowym Bechtle. W naszym sklepie internetowym oferujemy różne nośniki pamięci. Należą do nich nośniki danych RDX, nośniki optyczne, takie jak płyty DVD i Blu-ray oraz pamięci flash. Pamięci flash można podzielić na pamięci USB oraz karty flash o różnych formatach i rozmiarach. Zapewnienie efektywną i zoptymalizowaną wydajność pamięci masowej dla środowisk wirtualnych może być trudne do osiągnięcia, ponieważ jest wiele elementów w stosie infrastruktury, które muszą ze sobą współgrać. Pamięć masową o optymalnej wydajności dla środowiska wirtualnego można dobrać przy pomocy zestawu wskaźników, które są wykorzystywane do pomiaru operacji wykonywanych w środowiskach wirtualnych. Wyróżniamy trzy kluczowe wskaźniki wydajności, które są wspólne dla wszystkich środowisk: opóźnienie (czas dostępu, czas reakcji), przepustowość (pasmo) i IOPS. Opóźnienie określa czas potrzebny do ukończenia jednej operacji I/O (wejścia wyjścia) i jest w istocie miarą tego, jak szybko pamięć masowa reaguje na zapytania odczytu lub zapisu danych. Mierzona wartość jest przedstawiana w milisekundach, obecnie ten parametr w najszybszych dyskach SSD, jakie są dostępne na rynku, jest na poziomie ułamków milisekund. W idealnym środowisku parametr opóźnienia byłby równy zero, co skutkowałoby tym, że operacje odczytu i zapisu na dyski twarde pamięci masowej nie miałyby wpływu na jej wydajność. Ponieważ fizycznie jest to nie możliwe to każda operacja I/O obarczona jest pewnym opóźnieniem. Największym wyzwaniem dla każdej pamięci masowej jest zminimalizowanie wartości opóźnienia, gdyż w większości przypadków w infrastrukturze IT to właśnie pamięć masowa jest tzw. wąskim gardłem. Mniejszy wskaźnik opóźnienia oznacza, krótszy czas oczekiwania na zakończenie operacji I/O a zatem szybsze wykonanie zadania. W środowisku wirtualnym parametr opóźnienia ma bezpośredni wpływ na prędkość działania maszyn wirtualnych (VM) i pulpitów dostępowych. Zmniejszenie opóźnienia wskazuje na lepsze wykorzystanie zasobów procesora i pamięci operacyjnej. W rezultacie w pamięciach masowych wdrażanych do środowisk wirtualnych implementuje się dyski SSD oraz możliwość zarządzania przepływem operacji I/O do macierzy dyskowej. Technologia pamięci flash najczęściej wykorzystywana jest przy sprzętowym, czy też programowym “caching-u”, którego celem jest zredukowanie wartości opóźnienia do jak najmniejszych. Przepustowość – Zdolność do przesłania ustalonej ilości danych w mierzonym czasie określa się mianem przepustowości lub pasma. Typowa przepustowość jest mierzona w jednostkach megabajt na sekundę (MBps). Sieciowe pamięci masowe i urządzenia dyskowe mogą być definiowane przez dwa rodzaje przepustowości – przepustowość stała i przepustowość szczytowa. Stała przepustowość to zdolność pamięci masowej do przesyłania danych ze stałą prędkością w długim okresie czasu. Szczytowa przepustowość wskazuje poziom jaki pamięć masowa jest w stanie osiągnąć, w krótkim okresie czasu. W środowiskach typu VDI (virtual desktop infrastructure) bardzo ważna jest szczytowa przepustowość, przykładowo kiedy mamy do czynienia z “boot storms” – jest to moment, w którym do system loguje się wielu użytkowników i w tym samym czasie uruchamiają swoje wirtualne maszyny. Taka sytuacja generuje ogromną ilość operacji I/O i jeżeli macierz nie jest w stanie efektywnie tym zarządzać to automatycznie wzrasta nam opóźnienie. Duża przepustowość ma istotne znaczenie także dla środowiska serwerów wirtualnych podczas gdy realizowane jest dynamiczne przenoszenie maszyn wirtualnych pomiędzy serwerami. Możliwość zmierzenia przepustowości i zrozumienie zapotrzebowania szczytowego jest krytyczne dla środowisk wirtualnych. IOPS (input output operations per second) – IOPS jest miarą liczby indywidualnych zapytań odczytu/zapisu jaką pamięć masowa jest w stanie obsłużyć w ciągu jednej sekundy. Liczba ta jest ściśle powiązana z przepustowością, ale się od niej różni. In many cases, vendors will use IOPS as a measure of the performance of their products, but these figures need to be considered alongside the size of data chunks being transferred in each operation. W wielu przypadkach, producenci sieciowych pamięci masowych korzystają z IOPS jako parametru wydajności, ale należy pamiętać, że przy doborze odpowiedniej jednostki należy rozważyć wielkość bloków danych jakie będzie musiała obsługiwać macierz. Przykładowo łatwiej jest przetwożyć wiele małych bloków o wielkości 4KB niż jeden duży o rozmiarze 1MB. Warto zwrócić też uwagę na to, że odczyt losowych danych jest bardziej czasochłonna niż ciągły zapis. Reasumując parametr IOPS musi być dokładnie osądzony pod kontem wielkości bloków przechowywanych na pamięci masowej oraz rodzaju operacji na nich wykonywanych. Zależność między opóźnieniem, przepustowością i IOPS Opóźnienie, IOPS i przepustowość są ściśle związane. Pamięć masowa, która będzie w stanie przetworzyć operacje I/O z małym opóźnieniem, będzie miała dużą wydajność IOPS. Liczba oblicza się z prostego wzoru 1/opóźnienie, więc jeżeli będzie na poziomie 3 milisekund (1/ to otrzymamy 333 IOPS. Pamięć masowa, która zapewni dużą liczbę IOPS dla dużych bloków danych będzie miała wysoką przepustowość, jej wartość oblicza się poprzez przemnożenie ilości IOPS przez wielkość I/O. Pamięci masowe zarządzają operacjami I/O równolegle lub współbieżnie, co daje im możliwość przetworzenia w tym samym czasie więcej niż jedną operację I/O. Współbieżność osiąga się przez doprowadzenie kilku niezależnych ścieżek do pamięci masowej i wykorzystaniu pamięci systemowej jako cache, w którym kolejkowane są transakcje. Ta metoda sprawia, że trzeba zastosować kolejny parametr pomiaru – długość kolejki (queue depth) – który opisuje ile zapytań I/O pamięć masowa jest w stanie obsłużyć jednocześnie. Pojedynczy dysk posiada parametr długości kolejki na poziomie jedno lub dwucyfrowej, podczas gdy duża korporacyjna macierz dyskowa długość kolejki będzie miała na poziomie dziesiątek lub setek cyfr na jeden LUB, na jeden port lub kombinację obu. Dzięki kolejkowaniu kilku zapytań razem pamięć masowa może zoptymalizować proces zapisu, tym samym redukując opóźnienie związane z przechowywaniem danych, jest to szczególnie skuteczne w przypadku dysków twardych, w ten sposób można znacznie zmniejszyć ruch głowicy. Profil obciążenia oraz gdzie dokonywać pomiaru Identyfikacja i zbieranie danych o poszczególnych wskaźnikach macierzy umożliwiają nam zrozumienie jaką wydajność daje nam dana pamięć masowa, ale wszystkie te informacje trzeba wykorzystać w kontekście profilu operacji I/O oraz gdzie pomiary zostały dokonane. A to dlatego, że każda aplikacja jest inna, co za tym idzie ma inne potrzeby. Przykładem może być VDI i wirtualny serwer, gdzie ruch jest wysoce zróżnicowany ze względu na rozproszenie aktywnych danych w całej objętości wolumenu przechowującego wirtualne dyski. VDI to w 80% odczyt danych więc małe opóźnienie dla operacji I/O daje zauważalne przyspieszenie. Miejsce pomiaru wskaźników jest także bardzo ważne, gdyż pomaga prawidłowo ocenić osiągi I/O na całej ścieżce transportu danych. W dzisiejszych czasach jesteśmy w stanie monitorować operację I/O od początku do końca, dzięki czemu jesteśmy w stanie zweryfikować na którym etapie procesowania występuje opóźnienie. Pomiaru możemy dokonywać w trzech wymiarach, bezpośrednio na pamięci masowej, przy pomocy hypervisor-a lub z poziomu samego hosta. Nie ma dobrych lub złych miejsce do pomiarów; każde daje perspektywy funkcjonowania systemu. Pomiary wykonane z poziomu pamięci masowej pokazują jak dobrze macierz radzi sobie z zewnętrznymi zapytaniami. Pomiary dokonane z poziomu hosta mogą przykładowo pokazać jak zawartość serwera ma wpływ na osiągi danego hosta, a pomiar przy pomocy hypervisor-a pokazuje efektywność sieci macierzy dyskowych. Oba najbardziej popularne hypervisory (vSphere ESXi i Hyper-V) pozwalają na wygenerowania dużego obciążenia w celu optymalizacji osiągów pamięci masowej. Storage DRS w przypadku vSphere, potrafi również na podstawie historycznych pomiarów opóźnień I/O podczas migracji VM zaproponować optymalne osiągi. Podczas gdy Intelligent Placement w Hyper-V dokonuje kalkulacji bazując na IOPS VM. Nie zapomnij o … Wszystko o czym pisaliśmy wyżej bazuje tylko na technologii, ale trzeba pamiętać, że często o wyborze odpowiedniej pamięci masowej decyduje także budżet jakim dysponujemy. W tym przypadku wskaźnikiem będzie PLN/GB, który mierzy koszt pojemności. Jednak wszyscy wiemy, że w przypadku rozwiązań z pamięcią flash współczynnik PLN/GB jest znacznie większy niż w przypadku zwykłych mechanicznych dysków, dlatego w przypadku wymagających aplikacji ten współczynnika warto zastąpić parametrem PLN/IOPS. Praktyka Wzorcowym przykładem jak producenci macierzy powinni prezentować powyższe wskaźniki jest firma Qsan Technology. Prezentują wszystkie parametry, które nas interesują przy doborze macierzy dyskowej do środowiska wirtualnego. Firma Qsan Technology przygotowała bardzo dokładne raporty wydajności dla każdej pamięci masowej dedykowanej do sieci SAN. W ich raportach zawarto informacje o ilości IOPS dla różnych wielkości bloków, nie tylko dla tych przy których macierz ma najlepszą wydajność, żeby ładnie wyglądało to marketingowo. To samo w przypadku wydajności, nie dość, że pokazano wyniki dla różnych wielkości bloków to również zaprezentowano wyniki z podziałem na profil obciążenia, tj. zapis oraz odczyt losowy i sekwencyjny. Żeby tego było mało pokazano jakie wyniki macierz osiągają przy włączonym i wyłączonym cache. Dla tych, którzy chcą zobaczyć jak wyglądają profesjonalne raporty poniżej linki do trzech najbardziej popularnych modeli: Qsan P400Q- S212, Qsan P600Q-S212, Qsan F600Q-S212 Dzięki takim raportom i przeczytaniu tego artykułu nie powinniście już mieć problemów z wyborem odpowiedniej sieciowej pamięci masowej. Jeżeli jednak nie wiecie ile IOPS potrzebujecie to zawsze możecie wypożyczyć macierz Qsan i sprawdzić we własnym środowisku czy spełni wasze wymagania. Podsumowanie Ze względu na losowe charakter środowiska wirtualnego, opóźnienie jest kluczowym wskaźnikiem, który należy brać pod uwagę podczas monitoringu osiągów pamięci masowych. Opóźnienie jest istotne zarówno gdy mamy jedną lub sto maszyn wirtualnych. W momencie, gdy po uwagę bierzemy pojemność pamięci masowej, żeby mieć możliwość obsługi dużej ilości maszyn wirtualnych to wtedy bardzo ważna rolę gra przepustowość. Wynika to z tego, że możliwość skalowania środowiska wirtualnego wymaga odpowiedniego potencjału przepustowości. Jak już wspomnieliśmy szczytowe obciążenie, w krótkich okresach czasu generowane przez VDI dla operacji odczytu i zapisu będzie sprawiać spore problemy. Z punktu widzenia hosta, IOPS jest parametrem, który najlepiej definiuje wydajność. Jest on także wykorzystywany zarówno w prywatnych, jak i wirtualnych infrastrukturach chmury. Laptopy, smartfony i inny sprzęt elektroniczny mają dwa główne typy pamięci. Jeden z nich może jednak znajdować się w samym urządzeniu lub być dodatkowym elementem, które do niego podłączasz. Starsze określenia pamięć wewnętrzna i zewnętrza są więc nie do końca precyzyjne i lepiej mówić o pamięci operacyjnej oraz masowej – wbudowanej lub na dodatkowym nośniku […]
Kontrolery / procesory pamięci masowej: zarządzają dyskowymi We / Wy, RAID i buforowaniem (termin „kontroler” lub „procesor” różni się w zależności od dostawcy SAN). Ponownie stosowane są kontrolery na poziomie przedsiębiorstwa, dzięki czemu mają znacznie lepszą wydajność i niezawodność niż sprzęt klasy konsumenckiej.
W centrach danych wciąż jest miejsce zarówno dla napędów taśmowych, jak i pamięci flash. Nic nie wskazuje na to, że w najbliższym czasie nastąpią jakieś znaczące przetasowania. Segment pamięci masowych przeznaczonych dla klientów korporacyjnych był dość długo skostniały i niewiele się na nim działo. Jednak ostatnie lata przyniosły spore ożywienie. Z jednej strony jest to zasługa młodych graczy próbujących zmienić status quo na rynku, zaś z drugiej, weteranów starających się przystosować do nowych realiów rynkowych i wymagań klientów. Jak wynika z danych IDC zapotrzebowanie biznesu na pamięci masowe rośnie o 30 proc rocznie., a firmowe budżety na infrastrukturę maksymalnie o 15 proc. W rezultacie organizacje muszą umiejętnie łączyć rozmaite rozwiązania, począwszy od bibliotek taśmowych, poprzez systemy NAS, macierze SAN, aż po naszpikowane nośnikami NVMe serwery. Lighgtbits stawia na NVMe Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology. Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud. Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe. – Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits. Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt. Taśmy z Kolorado Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood. Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware. Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów. –Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier. Nie tylko taśmy Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu. – Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum. Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu. Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami. – Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner. Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie. Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. – Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic. Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik. Czas na autonomiczny backup Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR. O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie. – Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas. Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie. – Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas. Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+. Pamięć flash ( ang. flash memory) – rodzaj pamięci komputerowej ( półprzewodnikowej, nieulotnej) stanowiącej rozwinięcie konstrukcyjne i kontynuację pamięci typu EEPROM. Dostęp do danych zapisanych w pamięci flash wykorzystuje stronicowanie pamięci: operacje odczytu, zapisu lub kasowania wykonywane są jednocześnie na ustalonejPojemność dysku jaką posiada sprzęt komputerowy nie zawsze jest w stanie pomieścić wszystkie dane, pliki czy nawet oprogramowania, z których często korzystamy. W takiej sytuacji jedynym rozwiązaniem jest ich zapisanie na zewnętrznych nośnikach pamięci. W dobie niezwykle szybkiego rozwoju technologicznego na rynku branży komputerowej oferowane są różnego rodzaju urządzenia pełniące rolę pamięci zewnętrznej. Tego rodzaju nośniki pozwalają zarówno na zapis jak i odczyt olbrzymich ilość różnego rodzaju danych na dowolnym urządzeniu wyposażonym w specjalnie do tego celu dedykowany slot. Rodzaje zewnętrznych nośników pamięci: Płyty CDW dobie rozbudowanej oferty rynku branży elektronicznej klasyczne płyty CD w dalszym ciągu stanowią jego ważny segment i cieszą się dużym zainteresowaniem. Najczęściej znajdują zastosowanie do zapisywania mniej istotnych bądź rzadziej używanych plików. Warto pamiętać, że można je szybko uszkodzić nawet przez niewielkie zrysowanie powierzchni. W aktualnej ofercie sprzedaży dostępne są płyty CD o pojemności od 650 do 900 MB. Użytkownicy mają do wyboru płyty CD w wersji R, która oznacza możliwość jednorazowego zapisania danych oraz wersji RW co wiąże się z możliwością wyczyszczenia zapisanych danych i nagrania nowych. Płyty DVDKolejnym, znanym i popularnym zewnętrznym nośnikiem danych są płyty DVD. Posiadające 4,75 GB pojemności płyty dostępne są w sprzedaży aż w trzech wersjach. Klasyczna z symbolem R przeznaczona jest do jednorazowego zapisania danych. DVD RW pozwala na wyczyszczenie wcześniej zapisanych plików i zapisanie na płycie nowych plików. Z kolei płyty dostępne w wersji DVD R DL posiadają aż dwie warstwy zapisu co w efekcie zwiększa ich pojemność do ponad 8 GB. Płyty Blu-ReyPłyty Blu-Rey to zewnętrzne nośniki pamięci, które dzięki zastosowaniu niebieskiego lasera charakteryzuje znacznie zwiększona w stosunku do płyt CD i DVD gęstość zapisu. Pojemność tego rodzaju nośników oscyluje w granicach od 25 GB i sięgać może nawet do kilkuset GB. Najczęściej znajdują zastosowanie jako zewnętrzny nośnik plików video zapisanych w rozdzielczości Full HD. PnedrivePendrive to najbardziej znana i popularne wśród użytkowników sprzętu komputerowego pamięć zewnętrzna. Zastosowanie pamięci typu Flash dało możliwość stworzenia niezwykle małego, szczelnie zamkniętego i odpornego na wszelkiego rodzaju uszkodzenia urządzenia, które bez problemu zmieści się w kieszeni spodni, portfelu, torebce lub w bezpieczny sposób dla zapisanych danych będzie pełnić rolę ozdobnego breloczka. Łączność pomiędzy tego rodzaju nośnikiem pamięci zewnętrznej, a sprzętem komputerowym zapewnia port USB. W ofercie rynkowej znaleźć można pendrive o pojemności od 4 do 64 a nawet więcej GB, które obsługiwane są przez porty USB klasy 3,0. Zastosowanie portów USB klasy 3,0 gwarantuje bardzo szybki transfer danych co jest olbrzymią zaletą w przypadku kopiowania bądź odtwarzania dość dużych plików. Dyski zewnętrzneRolę zewnętrznych nośników pamięci pełnią również dyski zewnętrzne. Najczęściej spotkać można dyski klasy HDD 3,5 bądź 2,5 których obudowa wyposażona jest w port USB. W ofercie sprzedaży dostępne są również zewnętrzne dyski SSD, które charakteryzuje zdecydowanie większa szybkość transferu danych, większa wytrzymałość na uszkodzenie oraz bezgłośna praca. Ze względu na dość wysoką cenę ten rodzaj zewnętrznych nośników w dalszym ciągu dostępny jest jedynie dla kieszeni wciąż nie licznej grupy użytkowników. Karty pamięciRolę zewnętrznych nośników pamięci pełnią również specjalne karty pamięci. Rodzaj karty pamięci uzależniony jest od urządzenia, z którym mają współpracować. W przypadku aparatów i kamer cyfrowych zalecane jest zastosowanie kart SD, do smartfonów karty micro SD, a CompactFlash doskonale współpracują z aparatami cyfrowymi. Serwery NASZewnętrznymi nośnikami pamięci są również serwery NAS. Ich zadaniem jest zdalny dostęp do danych, które zostały zapisane i są przechowywane na dyskach przy wykorzystaniu sieci internetowej. Charakteryzuje je bardzo wysoka, bo sięgają kilka TB pojemność. Najczęściej znajdują zastosowanie do przechowywania kopii zapasowych. Jeśli potrzebujesz zewnętrznych nośników danych zapraszamy do sklepu internetowego:
Kliknij tutaj, 👆 aby dostać odpowiedź na pytanie ️ Wymień 5 najważniejszych parametrów na które należy zwrócić uwagę przy zakupie zasilacza, krótko je opisz i…
Nie taka Chia zielona, jak ją malująOstatnio coraz głośniej o Chia. Nowa kryptowaluta wzbudza olbrzymie zainteresowanie na rynkach azjatyckich, ale też – coraz bardziej – w Europie. Trudno się dziwić, w odróżnieniu od takiego Bitcoina czy Ethereum nie korzysta z olbrzymiej mocy obliczeniowej ultrawydajnych kart opiera się na technice Proof of Space & Time, więc dla niej hardware’owo najważniejsze są pojemne dyski SSD i HDD. Co za tym idzie, do kopania kryptowaluty potrzeba znacznie mniej energii elektrycznej niż w przypadku wspomnianych już BTC i ETH. Stąd do Chia szybko przylgnęła łatka „ekologicznej” lub „zielonej” na temat Chia przeczytasz w tekście:Chia – nowa kryptowaluta, stare problemy. Tym razem na rynku może zabraknąć dysków SSD i HDDNiedługo musieliśmy czekać na informacje o tym, że wcale tak ekologicznie z Chia nie jest. Kryptowaluta bowiem powoduje liczne awarie dysków, szczególnie SSD, które kiepsko reagują na obciążenia związane z „kopaniem”. Dyski padają jak muchyO problemach poinformował chiński serwis technologiczny MyDrivers. Z przygotowanego przezeń raportu możemy dowiedzieć się, że standardowe dyski SSD o pojemności 256 GB wytrzymują z trudem 40 dni. Analogicznie, w przypadku nośników 512 GB, jest to około 80 dni, a terabajtowe dyski padają średnio co 160 zauważyć korelację między pojemnością nośnika, a jego żywotnością w kontekście wydobywania Chia. Pokrywa się to z faktem, iż w „kopaniu” kryptowaluty większe znaczenie ma miejsce na dysku, a nie jego wydajność. Stąd też renesans popularności, tańszych jak dotąd, dysków HDD, których, tak jak SSD, już zaczyna brakować. Czy to koniec Chia?Raczej koniec swobody konsumenckiej w wyborze dysków. Niedobory pamięci masowej są już odczuwalne na rynku europejskim, szczególnie gdy mowa o nośnikach o pojemności 4 TB i większych. Biorąc pod uwagę utrzymujące się problemy z dostępnością kart graficznych, które skupują górnicy innych kryptowalut, niedługo złożenie wydajnego desktopa może stanowić wyzwanie rzędu „mission impossible”. O ile już nie Phison – firma produkująca kontrolery SSD dla niektórych z dzisiejszych najszybszych dysków SSD PCIe – prognozuje, że w najbliższych tygodniach doświadczymy 10-procentowego wzrostu cen na urządzenia pamięci masowej. Nie to jednak stanowi największy problem, ale fakt, że zapasy produktów są bardzo ograniczone, a górnicy nie zwalniają tempa. Co ciekawe, sytuacja dotknie też rynek konsol; kontrolery SSD od firmy Phison znajdują się bowiem w Xboksach serii X i Phison, KS Pua, sugeruje, że obecna sytuacja na świecie, związana z pandemią COVID-19 i niedoborem chipów, spowoduje ograniczoną podaż kontrolerów SSD przez cały 2022 rok, a może nawet kryptowalutowego szaleństwa nie widać…Źródła: techpowerup, materiały własne