Bit – najmniejsza jednostka informacji w informatyce
Bit (ang. binary digit) to absolutna podstawa świata cyfrowego. Wszystko, co widzisz na ekranie — tekst, zdjęcia, muzyka, wideo, strony WWW, gry, a nawet szyfrowanie bankowe — da się ostatecznie sprowadzić do ciągów 0 i 1. W tym artykule rozkładamy „bit” na czynniki pierwsze: czym jest, jak działa, jak liczyć bity, gdzie je spotykasz oraz dlaczego w praktyce łatwo pomylić bit (b) z bajtem (B).
Czym jest bit?
Bit to najmniejsza jednostka informacji w informatyce i telekomunikacji. Może przyjąć tylko jedną z dwóch wartości: 0 albo 1. Dzięki temu idealnie pasuje do elektroniki cyfrowej, gdzie łatwo rozróżnić dwa stany — np. niski/wysoki poziom napięcia, brak/sygnał, wyłączone/włączone.
Warto zauważyć: bit to nie tylko „cyferka”. Bit to także nośnik decyzji i niepewności. Jeśli odpowiedź na pytanie brzmi „tak/nie”, to do jej zapisu wystarczy 1 bit. Jeśli mamy cztery możliwe odpowiedzi, potrzebujemy 2 bitów (bo 2 bity dają 4 kombinacje).
Trochę historii i teoria informacji
Pojęcie bitu spopularyzowała teoria informacji, kojarzona głównie z Claude’em Shannonem. Kluczowa intuicja jest prosta: informację można traktować jak coś, co da się kodować w postaci decyzji binarnych. Dlatego „0/1” stało się uniwersalnym językiem komputerów.
W praktyce to właśnie ta idea pozwoliła budować: kompresję danych (mniej bitów na to samo znaczenie), szyfrowanie (mieszanie bitów według reguł), korekcję błędów (dodatkowe bity kontrolne), transmisję (bity na sekundę).
Bit vs bajt: b a B (najczęstsze pomyłki)
To klasyczny „zgrzyt” w IT: bit zapisujemy małą literą b, a bajt wielką literą B. Różnica jest ogromna:
- 1 b = 1 bit
- 1 B = 8 bitów = 8 b
Dlatego: 100 Mb/s (megabitów na sekundę) to nie to samo co 100 MB/s (megabajtów na sekundę). W uproszczeniu:
MB/s ≈ Mb/s ÷ 8 (pomijając narzut protokołów i realne warunki)
Przykład: internet 300 Mb/s w idealnych warunkach da maksymalnie około 37,5 MB/s pobierania (300 ÷ 8). A w praktyce bywa mniej, bo dochodzą nagłówki protokołów, Wi-Fi, obciążenie sieci i serwerów.
Jak komputer „widzi” bity?
W elektronice cyfrowej bit jest realizowany fizycznie: tranzystorami, kondensatorami, komórkami pamięci, stanami magnetycznymi. W programowaniu bit jest abstrakcją, ale mocno powiązaną ze sprzętem. Procesor operuje na rejestrach (np. 64-bitowych), pamięć jest adresowana bajtami, a pliki to sekwencje bajtów.
Pojęcia, które często pojawiają się obok bitu:
- word — „słowo” procesora (np. 32 bity, 64 bity)
- endianness — kolejność bajtów (little-endian / big-endian)
- bit depth — „głębia bitowa” w grafice i audio (np. 8/10/12/16 bitów)
System dwójkowy i przykłady zapisu
Bit jest cyfrą w systemie dwójkowym. Liczby w binarnym zapisie powstają tak jak w dziesiętnym, tylko zamiast podstawy 10 mamy podstawę 2. Każda kolejna pozycja to rosnąca potęga dwójki:
Pozycje (od prawej): 1 2 4 8 16 32 64 128
Bity: b0 b1 b2 b3 b4 b5 b6 b7
Przykład: 11001010 (8 bitów) to:
1*128 + 1*64 + 0*32 + 0*16 + 1*8 + 0*4 + 1*2 + 0*1
= 128 + 64 + 8 + 2
= 202
Taki ciąg 8 bitów to 1 bajt. Ten sam bajt może oznaczać: liczbę 202, jakiś znak w danym kodowaniu, albo fragment koloru/piksela — zależy od interpretacji.
Operacje bitowe: AND, OR, XOR, NOT i przesunięcia
Operacje bitowe są bardzo szybkie i występują wszędzie: od sterowników, przez kryptografię, po optymalizacje. Najważniejsze:
- AND (
&): 1 tylko wtedy, gdy oba bity są 1 - OR (
|): 1, gdy przynajmniej jeden bit jest 1 - XOR (
^): 1, gdy bity są różne - NOT (
~): odwraca bit (0→1, 1→0) - SHIFT (
<<,>>): przesunięcia w lewo/prawo
Przykład na liczbach (intuicyjnie)
Załóżmy:
a = 10101010
b = 11001100
AND:
a & b = 10001000
OR:
a | b = 11101110
XOR:
a ^ b = 01100110
Przesunięcia
Przesunięcie w lewo o 1 (<< 1) zwykle odpowiada mnożeniu przez 2 (w obrębie zakresu).
Przesunięcie w prawo o 1 (>> 1) zwykle odpowiada dzieleniu przez 2.
00010110 (22)
<< 1 → 00101100 (44)
00101100 (44)
>> 1 → 00010110 (22)
Bitmaski i flagi: bardzo praktyczne zastosowanie
Bitmaski to jeden z najpraktyczniejszych powodów, dla których „bit” jest tak ważny. Zamiast przechowywać wiele wartości typu „tak/nie” osobno, można upchnąć je w jeden liczbowy „pakiet” bitów. Każdy bit oznacza jedną cechę (flagę).
Przykład: uprawnienia
Załóżmy trzy uprawnienia:
- odczyt (R) = 1
- zapis (W) = 2
- wykonanie (X) = 4
Wtedy:
- R = 001
- W = 010
- X = 100
- R+W = 011 (czyli 3)
- R+X = 101 (czyli 5)
- R+W+X = 111 (czyli 7)
To dokładnie ta logika stoi m.in. za uprawnieniami w systemach Unix/Linux (np. 755, 644).
Bity w sieciach: Mb/s, maski, IP i narzut protokołów
Przepływność
W sieciach prędkość zwykle podaje się w bitach na sekundę (b/s). Stąd popularne: kb/s, Mb/s, Gb/s. Producenci i operatorzy prawie zawsze używają Mb/s, bo liczby wyglądają „lepiej” niż w MB/s.
Adresy IP a bity
Adres IPv4 ma 32 bity. Maska (np. /24) mówi, ile bitów opisuje sieć, a ile hosty. Przykład 192.168.1.0/24 oznacza, że:
- 24 bity to część sieci
- 8 bitów to część hosta (czyli 28 = 256 adresów, w praktyce mniej użytecznych)
Narzut protokołów
Nawet jeśli łącze ma X Mb/s, realny transfer pliku bywa mniejszy. Dzieje się tak, bo część transmisji to dane „pomocnicze”: nagłówki Ethernet/IP/TCP/UDP, potwierdzenia, retransmisje, a w Wi-Fi dodatkowo mechanizmy kontroli medium. To normalne.
Ile bitów potrzeba do… (ASCII/Unicode, kolory, audio, wideo)
Tekst
W klasycznym ASCII jeden znak to 7 bitów (często przechowywane w 8 bitach = 1 bajt). W nowoczesnych systemach króluje Unicode (np. UTF-8), gdzie jeden znak może zająć 1–4 bajty, zależnie od tego, jaki to znak (łaciński, polski, emoji, znaki azjatyckie itp.).
Kolory w grafice
Wiele obrazów używa modelu RGB po 8 bitów na kanał:
- R: 8 bitów
- G: 8 bitów
- B: 8 bitów
Razem daje to 24 bity na piksel (czyli 16 777 216 możliwych kolorów). Gdy dochodzi kanał alfa (przezroczystość), mamy zwykle 32 bity na piksel (RGBA).
Audio
„Głębia bitowa” w audio (np. 16-bit, 24-bit) wpływa na zakres dynamiki i poziom szumów kwantyzacji. CD audio to klasycznie 16 bitów na próbkę przy 44,1 kHz. W studiu często spotkasz 24 bity.
Wideo
Wideo to ogrom danych, dlatego tak ważna jest kompresja. W praktyce liczy się nie tylko „ile bitów”, ale: rozdzielczość, klatkaż, kodek, bitrate, profil, sceny (szczegółowość, ruch). Stąd na platformach streamingowych kluczowy parametr to często bitrate (Mb/s).
Jednostki większe niż bit: k/M/G/T i wersje binarne (KiB/MiB)
W praktyce spotkasz dwa „światy” jednostek:
1) Dziesiętne (SI) — najczęściej marketing, dyski, sieci
- 1 kb = 1000 b
- 1 Mb = 1000 kb = 1 000 000 b
- 1 Gb = 1 000 000 000 b
2) Binarne (IEC) — często systemy operacyjne, RAM, techniczne opisy
- 1 Kib = 1024 b
- 1 Mib = 1024 Kib
- 1 Gib = 1024 Mib
Analogicznie dla bajtów: KB/MB/GB (dziesiętne) vs KiB/MiB/GiB (binarne). To tłumaczy, dlaczego „dysk 1 TB” w systemie może wyglądać jak ~931 GiB. To nie „brak” pamięci, tylko różnica definicji jednostek.
Typowe błędy i szybkie porady
- Mylenie b i B: Mb/s to megabity, MB/s to megabajty. Różnica ×8.
- „Mam 1 Gb internetu, czemu nie pobiera 1 GB/s?” Bo 1 Gb/s ≈ 125 MB/s w idealnych warunkach, a w praktyce zwykle mniej.
- „Dysk ma mniej niż na pudełku” – producent liczy dziesiętnie (TB), system często pokazuje binarnie (TiB/GiB).
- Bitrate to nie rozdzielczość: 1080p może wyglądać świetnie lub słabo — zależy od bitrate’u i kodeka.
FAQ
Czy bit zawsze oznacza 0 albo 1?
W klasycznej informatyce cyfrowej tak. Są jednak dziedziny (np. informatyka kwantowa), gdzie spotyka się inne modele. W codziennych zastosowaniach IT bit to po prostu 0/1.
Ile bitów ma bajt?
8 bitów. To standard powszechny praktycznie we wszystkich współczesnych systemach.
Skąd się bierze „64-bitowy system”?
Najprościej: z architektury procesora i szerokości rejestrów/adresowania. 64 bity pozwala m.in. adresować dużo większą przestrzeń pamięci niż 32 bity.
Co oznacza „głębia bitowa” w grafice?
To liczba bitów używana do opisu koloru (lub kanału). Np. 8 bitów na kanał w RGB daje 24 bity na piksel. Większa głębia to zwykle płynniejsze przejścia tonalne (mniej bandingu), szczególnie w HDR.
Podsumowanie
Bit to fundament całej informatyki: najmniejsza porcja informacji, z której buduje się bajty, pliki, obrazy, dźwięk, wideo i transmisję w sieciach. Zrozumienie bitu szybko rozjaśnia wiele „miejskich legend”: dlaczego prędkości internetu podaje się w Mb/s, czemu dysk ma „mniej”, jak działają maski sieciowe i czemu operacje bitowe są tak ważne w systemach i bezpieczeństwie.