Gigabajt (G lub GB)

Autor: Laura McKinney
Data Utworzenia: 6 Kwiecień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
Gigabyte WIFI Card (GC-WB1733D-I) - Unboxing & Testing
Wideo: Gigabyte WIFI Card (GC-WB1733D-I) - Unboxing & Testing

Zawartość

Definicja - Co oznacza Gigabyte (G lub GByte)?

Gigabyte (GB lub GByte) to jednostka miary danych dla komputera cyfrowego lub pamięci masowej. Jeden GB to miliard (1 000 000 000) bajtów lub tysiąc (1 000) megabajtów (MB).


Wprowadzenie do Microsoft Azure i Microsoft Cloud | W tym przewodniku dowiesz się, na czym polega przetwarzanie w chmurze i jak Microsoft Azure może pomóc w migracji i prowadzeniu firmy z chmury.

Techopedia wyjaśnia Gigabyte (G lub GByte)

Jeden bajt zawiera osiem bitów składających się z ciągu 0 i 1, które zawierają 256 wartości w zakresie od 0 do 255. Ogólnie, bajt to liczba bitów użytych do zakodowania pojedynczego znaku.

Zgodnie z międzynarodowym systemem jednostek (SI z francuskiego: Système International dUnités) przedrostek giga odnosi się do miliarda (109 lub 1 000 000 000) bajtów. W informatyce i informatyce GB równa się 1 073 741 824 (10243 lub 230) bajtów. W 2000 r. Instytut Inżynierów Elektryków i Elektroników (IEEE) wprowadził formalne zatwierdzenie prefiksów metrycznych Międzynarodowej Komisji Elektrotechnicznej (IEC). Na przykład jeden GB to jeden miliard bajtów, a jeden kilobajt (KB) to tysiąc bajtów.

Pod koniec 1999 r. IEC formalnie zaleciła, aby gibi, metryczny odpowiednik giga, zastąpił prefiks giga.

W 21św wieku, termin GB jest używany zgodnie z con. Większość firm tworzących sieci komputerowe używa przedrostka SI gibi dla gibibyte (GiB). Odnosząc się do ilości dostępnej pamięci RAM, używany jest prefiks binarny. Zatem jeden GB to 10243 bajty. Odnosząc się do miejsca na dysku, jeden GB jest równy około 109 bajty.

Oprogramowanie i systemy archiwizacji często dzielą rozmiar pliku na kategorie za pomocą kombinacji binarnej i jednostek SI, takich jak GB lub GiB.