Bit

Słowo bit ma wiele znaczeń, ale w informatyce oznacza ona najmniejszą adresowalną jednostkę informacji, którą może przetworzyć komputer. W systemie zero-jedynkowym każdej z cyfr przypisany jest jeden bit. Jest to jednocześnie skrót od angielskich słów „binary digit”, a wiadomo, jak wyglądają skrótowce w tym języku – upraszcza się praktycznie wszystko, co jest możliwe do uproszczenia.

W bitach wyraża się także szybkość przesyłu danych, a poniżej możecie zobaczyć, jak wyglądają inne miary, na które składają się wielokrotności bitów:

– kilobit (kb) – tysiąc bitów
– megabit (Mb) – milion bitów
– gigabit (Gb) – miliard bitów
– terabit (Tb) – bilion bitów
– petabit (Pb) – biliard bitów

Sprawdź również: