https://sellio.store/pl/page/77/     https://fashionetta.org/pl/page/77/     https://home-partner.org/pl/page/77/     https://car-paradise.org/pl/page/77/     https://car-accessories.net/pl/page/77/     https://modeo-shop.com/pl/page/77/     https://wibratory.net/pl/page/77/     https://etui-empire.com/pl/page/77/     https://e-papierosy.org/pl/page/77/     https://ero-land.org/pl/page/77/     https://lampy-sklep.com/pl/page/77/     https://desteo.org/pl/page/77/     https://shopara.org/pl/page/77/     https://shopme-online.org/pl/page/77/     https://shopinio.org/pl/page/77/     https://shopopolis.org/pl/page/77/     https://shoporama.org/pl/page/77/     https://desuto.org/pl/page/77/     https://shopsy-online.org/pl/page/77/     https://e-shopsy.org/pl/page/77/     https://vandershop.net/pl/page/77/    https://shoporama.org/pl/page/77/    https://business-geek.info/    https://earththings.info/en/

catalog-info.com

Kolejna witryna oparta na WordPressie

Bez kategorii

Przyszłość przechowywania danych

Jeśli miałbyś postawić hipotezę na temat przyszłości big data, co przychodzi Ci do głowy? Przechowywanie danych w chmurze? Centra danych? Pamięć masowa definiowana programowo? A może zadajesz sobie pytanie:

  • Co służy do przechowywania danych do wykorzystania w przyszłości?
  • Czy zabraknie nam miejsca na przechowywanie danych?
  • Czy DNA jest przyszłością przechowywania danych?
  • Jaka jest przyszłość dysków SSD?
  • Jaka jest przyszłość przechowywania danych?

Więcej…

Przewidywanie przyszłości przechowywanych danych nie jest łatwe, jednak jeśli przyjrzeć się trendom, można dostrzec zbieżność zaawansowanych, nowych technologii i metodologii, które dają wgląd w przewidywalną przyszłość. Dzięki temu zarządzanie pamięcią masową stanie się bardziej elastyczne, inteligentniejsze i łatwiejsze.

Już teraz liderzy IT na całym świecie szukają bardziej wydajnych sposobów radzenia sobie z nadchodzącą falą danych, która będzie generowana przez sztuczną inteligencję i IoT. Raport z badania rynku opracowany przez firmę Statista wykazał, że według prognoz całkowita ilość danych zużywanych na świecie wzrośnie do 64,2 zettabajtów w 2020 r. i 79 zettabajtów w 2021 r., a do 2025 r. ma wzrosnąć do ponad 180 zettabajtów.

Co więcej, Forbes przewiduje, że do 2025 roku analizie będzie musiało zostać poddanych ponad 150 zettabajtów, czyli 150 bilionów gigabajtów danych w czasie rzeczywistym.

W momencie publikacji tego raportu Google wykonywał niecałe 4 miliardy wyszukiwań dziennie, co daje 97 000 na sekundę. Ze względu na zalew danych, któremu podlegają takie firmy, jak Google, Amazon, Facebook i Microsoft, zazwyczaj mierzą one swoje dane w eksabajtach (czyli 1 000 000 terabajtów).

Podczas gdy dziś większość ludzi zna pojęcie terabajta, jeszcze kilka lat temu niewielu ludzi wiedziało, co to jest terabajt, teraz jest to norma.

Co następuje po terabajcie? Zgodnie z Międzynarodowym Układem Jednostek Miar:

  • Petabajt

  • Eksabajt

  • Zettabajt

  • Jottabajt

Dla porównania, jottabajt to około 1 septilion bajtów, czyli równowartość jednego kwadryliona gigabajtów (GB).

Gdzie jest więc brontobajt i dlaczego nie ma go na tej liście? Nie stał się on jeszcze standardową jednostką przechowywania danych. Oznacza to, że w chwili obecnej brontobajt jest tylko teoretyczną ilością danych. Czy to oznacza, że nie należy zwracać na niego uwagi? Zdecydowanie nie.

Rozmiary pamięci masowej i nośniki danych

Ludzie zapisują dane od około 4. tysiąclecia p.n.e., czyli od czasu wynalezienia pisma. Pismo ręczne, nagrania fonograficzne, taśmy magnetyczne i pliki MP3 to przykłady nośników pamięci. Niektórzy uważają nawet, że przechowywanie ludzkiego DNA jest przyszłością danych.

Jeśli chodzi o nośniki odczytu maszynowego lub pamięci cyfrowe, wszystko zaczęło się od „bitu”. Jak podaje Wikipedia, „bit jest najbardziej podstawową jednostką informacji w informatyce i komunikacji cyfrowej. Nazwa jest skrótem od słowa binary digit (cyfra binarna)”.

Jeśli erę cyfrową zdefiniować jako erę, w której więcej urządzeń przechowuje więcej informacji cyfrowych niż analogowych, to według Science (czasopismo) w 2002 r. na świecie w 1986 r. tylko 1% danych było przechowywanych w formacie cyfrowym (to tylko około trzech skompresowanych eksabajtów). W 1993 r. udział ten wzrósł do 3%, w 2000 r. do 25%, a w 2007 r. nastąpił ogromny skok do 97%. Wraz z pojawieniem się nowych technologii pamięci masowych, pamięć masowa zaczęła się podwajać mniej więcej co trzy lata, a serwerowe centra danych eksplodowały.

Wykres jednostek pamięci masowej

Obecny stan pamięci masowej

NVMe, SSD id Obliczeniowa pamięć masowa

Wraz z rosnącym zapotrzebowaniem na pojemność pamięci masowej nastąpił znaczny postęp w technologiach przechowywania danych: nośniki flash (pamięć nieulotna), przechowywanie w chmurze, zapis magnetyczny i dyski półprzewodnikowe. Menedżerowie IT opracowują obecnie plany i strategie radzenia sobie z ogromną falą danych, która ma nadejść, a którą wywoła rewolucja AI i IoT. Aplikacje wykorzystujące AI i IoT wymagają jeszcze większych ilości wysokowydajnych pamięci masowych.

Obecnie dane są przechowywane w pamięci głównej przez serwer hosta, liderzy poszukują podejścia, w którym przetwarzanie może odbywać się w warstwie pamięci masowej. Technologia brzegowa, którą umożliwiają dyski SSD o najwyższej wydajności, przybliża komputery do urządzeń pamięci masowej i jest powszechnym trendem, który obserwujemy w coraz większym stopniu. Dlatego wiele osób zwraca uwagę na systemy obliczeniowej pamięci masowej. Zapewniają one technologię obliczeniową w pamięci masowej, dostarczając wysokowydajną moc obliczeniową do urządzeń pamięci masowej.

Przetwarza ona i analizuje dane w miejscu ich tworzenia i przechowywania. Umożliwia to organizacji i jej użytkownikom wykonywanie różnych działań na poziomie urządzenia, takich jak filtrowanie danych przed wysłaniem ich z powrotem do chmury w celu zapisania w macierzach.

Dlatego coraz więcej menedżerów IT planuje przejście na infrastrukturę NVMe i opartą na kontenerach, a także już zaczęło identyfikować aplikacje, które mogą skorzystać na zwiększonej wydajności pamięci obliczeniowej.

W przypadku NVMe i SSD mamy do czynienia z licznymi zaletami w zakresie wydajności, dlatego też dominują one obecnie na rynku pamięci masowych. Mimo że mówi się o upadku dysków twardych, jest to tylko czcza gadanina. W dającej się przewidzieć przyszłości dyski twarde będą zawsze obecne w jakiejś formie lub postaci. Zawsze będą istniały technologie i zastosowania, które będą czerpać korzyści z ekonomiczności dysków twardych, takie jak przetwarzanie w chmurze czy hodowla chia.

Pamięć masowa definiowana programowo

Według firmy Red Hat

„Pamięć masowa definiowana programowo (SDS) to architektura pamięci masowej, która oddziela oprogramowanie pamięci masowej od sprzętu. W przeciwieństwie do tradycyjnych systemów sieciowej pamięci masowej (NAS) lub sieci pamięci masowej (SAN), SDS jest zasadniczo zaprojektowana do pracy na dowolnym systemie przemysłowym lub systemie x86, co eliminuje zależność oprogramowania od zastrzeżonego sprzętu.”

SDS ma szereg kluczowych zalet i wiele firm przechodzi na ten model. Umożliwia administratorom i kierownikom działów informatycznych konsolidację wszystkich danych i centralne zarządzanie nimi z jednego miejsca przy jednoczesnym zapewnieniu odpowiednich cech i funkcjonalności.

SDS to oprogramowanie do wirtualizacji, umożliwiające kontrolę i zarządzanie fizyczną pamięcią masową w „pulach wirtualnych”. Oferuje także thin provisioning w celu uzyskania maksymalnej pojemności pamięci masowej, a po wygenerowaniu puli w puli tworzone są także „dyski wirtualne” jako surowe jednostki LUN, które są następnie przesyłane do serwerów hostów w celu przechowywania danych. Najlepszą cechą oprogramowania kontrolera SDS jest to, że działa ono bez względu na pojemność lub użyteczność sprzętu. Bierze to, co znajdzie, i maksymalizuje pojemność.

Przechodząc na model wirtualny, użytkownik uzyskuje dostęp do wszystkich możliwych pamięci masowych w swoich maszynach wirtualnych. Zapewnia to ujednolicony widok, rozszerzając zakres na serwerową pamięć masową i centra danych serwerów hiperskalowych aż po przetwarzanie brzegowe.

Wszystkie te trendy wynikają z niekończącego się wzrostu ilości danych i ogromnych centrów danych w chmurze, napędzanych przez hiperskalery i konwergencję. Oczekuje się, że oprogramowanie będzie w coraz większym stopniuy kontrolujemy przechowywanie danych w przyszłości. Wkraczamy w erę, w której będziemy w znacznym stopniu konsolidować zasoby, opierając się na konwergencji protokołów, które leżą u podstaw fizycznej infrastruktury informatycznej, zapewniając mocniejsze podstawy struktury operacyjnej.

Sprawdź swoją wiedzę i porównaj pamięć masową z pamięcią masową firmy.

Co napędza rewolucję w dziedzinie pamięci masowej?

Wiemy, że zapotrzebowanie na większą ilość pamięci masowej w centrach danych szybko rośnie, a w miarę wprowadzania technologii IoT i sztucznej inteligencji będzie ono nadal rosło. Każdego dnia ludzie używają Alexy, dodają nowe funkcje do Apple Watch, instalują Google Nest, Ring i tak dalej, i tak dalej. Obecny trend w big data wydaje się mieć dane pochodzące z trzech głównych źródeł.

Dane konsumenckie pochodzące od gigantów mediów społecznościowych, takich jak Meta, TikTok, YouTube, Pinterest, LinkedIn i innych, pochłaniają dużą część tortu, na którym przechowywane są dane. Lajki, udostępnienia, przesłane filmy, komentarze i wiadomości to tyle, co miejsce na dysku. Równie ważne są usługi użyteczności publicznej i usługi online, takie jak pakiet bezpłatnych usług Google. Wiele aplikacji biznesowych SaaS wykorzystuje model subskrypcji freemium i oferuje bezpłatną pamięć masową, testy, wsparcie online w postaci samouczków i społeczności, mając nadzieję, że opłaty subskrypcyjne będą rosły wraz z rozwojem działalności użytkownika.

Mniej dyskutowany sektor przechowywania danych pochodzi z przemysłu wykorzystującego czujniki w sprzęcie i urządzeniach. Oczekuje się, że ilość danych maszynowych będzie rosła wraz z coraz powszechniejszym stosowaniem sztucznej inteligencji i Internetu przedmiotów. Urządzenia i czujniki – od zastosowań zdrowotnych po wojskowe, od kosmicznych po motoryzacyjne – będą przechwytywać dane i przesyłać je do innych urządzeń w Internecie, które będą je śledzić i przechowywać.

Trzecim rodzajem danych są dane transakcyjne, pochodzące z wszystkich transakcji, które mają miejsce każdego dnia w Twoim i moim życiu. Karty kredytowe, transakcje bankowe, zakupy spożywcze, zakupy internetowe, punkty – wszystkie one są przechowywane, prawdopodobnie w tablicy, w sposób bezpieczny i pewny.

Chcesz poznać różnicę między typami pamięci masowej? (łącze po opublikowaniu)

Przyszłość przechowywania danych

Choć brontobajt to pojęcie teoretyczne, można się założyć, że w niedalekiej przyszłości zostanie ono znormalizowane. Jego wymiary są ogromne. W notacji dziesiętnej 1 brontobajt to 1 000 000 000 000 000 000 000 000 000 000 000 000 (1027) bajtów. W notacji binarnej 1 „brobibajt” to 1 237 940 039 285 380 274 899 124 224 (290) bajtów. Obecnie największą ilością danych jest zettabajt. W 2016 r. światowy ruch danych przekroczył jeden zettabajt, co oznacza, że weszliśmy w erę zettabajtową. Wyobraź sobie, że jeden brontobajt odpowiada 1 000 000 zettabajtów.

Czy potrafisz odgadnąć, kto jest największą na świecie firmą zajmującą się danymi? Jak zapewne się domyślasz, jest to Google. Przechowuje ona około 10 eksabajtów (czyli 10 miliardów GB!). Z kolei Facebook ma około 2,5 miliarda pojedynczych treści, 2,7 miliarda polubień i 300 milionów zdjęć.

Można by pomyśleć, że firma, która ma najwięcej danych, będzie miała najwięcej serwerów. Jeśli pomyśleliście, że to Google, bylibyście w błędzie – odpowiedzią jest Amazon. Trudno jest dokładnie określić ilość przechowywanych danych, ale w 2015 roku szacowano, że jest to około 1 000 000 000 gigabajtów danych na ponad 1 400 000 serwerów.

Ale co jest większe niż brontobajt?

W kręgach Big Data mówi się obecnie o kolejnym teoretycznym poziomie powyżej brontobajta: gegobajcie lub geopbycie. Jest to odpowiednik 1000 brontobajtów.

Dane pochodzą z przemysłu, publicznej sieci,

Transakcje, przyszłość będzie wyglądać inaczej, ponieważ nowe gałęzie przemysłu, takie jak przemysł kosmiczny i satelitarny, będą generować ogromne ilości danych. Technologia strumieniowego przesyłania danych w połączeniu z pandemią przyczyniła się do rozwoju obecnej złotej ery telewizji, osiągając bezprecedensowy poziom przechowywania danych wideo. Czujniki, urządzenia, obliczenia kwantowe, inteligentne domy i autonomiczne samochody wprowadzą nas w erę brontobajtów.

Od laptopów po serwery podstawową jednostką miary danych jest terabajt, który ewoluuje wraz z możliwościami technologii pamięci masowej. Najwyraźniej gdybyś miał wszystkie dyski twarde na świecie, nadal nie miałbyś wystarczająco dużo miejsca, aby przechować jeden brontobajt. Jak wiele w technice, nie wiemy dokładnie, co przyniosą nowe technologie ani jak szybko się pojawią

Planowanie dla Twoich potrzebServerMania

pomaga firmom w ich

potrzebach

związanych

z danymi i przechowywaniem od ponad 20 lat i jest zaangażowana w zapewnianie naszym klientom niezawodnych, satysfakcjonujących doświadczeń. Posiadamy osiem centrów danych na całym świecie, aby zaspokoić wszystkie Twoje potrzeby. Już dziś umów się na konsultację z jednym z naszych kompetentnych przedstawicieli, aby dowiedzieć się więcej o hostingu serwerów pamięci masowej.


Czytaj dalej: https://blog.servermania.com/brontobyte-future-data-storage/

Udostępnij

O autorze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.