Bit – najmniejsza jednostka informacji w informatyce

Bit (ang. binary digit) to absolutna podstawa świata cyfrowego. Wszystko, co widzisz na ekranie — tekst, zdjęcia, muzyka, wideo, strony WWW, gry, a nawet szyfrowanie bankowe — da się ostatecznie sprowadzić do ciągów 0 i 1. W tym artykule rozkładamy „bit” na czynniki pierwsze: czym jest, jak działa, jak liczyć bity, gdzie je spotykasz oraz dlaczego w praktyce łatwo pomylić bit (b) z bajtem (B).


Czym jest bit?

Bit to najmniejsza jednostka informacji w informatyce i telekomunikacji. Może przyjąć tylko jedną z dwóch wartości: 0 albo 1. Dzięki temu idealnie pasuje do elektroniki cyfrowej, gdzie łatwo rozróżnić dwa stany — np. niski/wysoki poziom napięcia, brak/sygnał, wyłączone/włączone.

Warto zauważyć: bit to nie tylko „cyferka”. Bit to także nośnik decyzji i niepewności. Jeśli odpowiedź na pytanie brzmi „tak/nie”, to do jej zapisu wystarczy 1 bit. Jeśli mamy cztery możliwe odpowiedzi, potrzebujemy 2 bitów (bo 2 bity dają 4 kombinacje).

Trochę historii i teoria informacji

Pojęcie bitu spopularyzowała teoria informacji, kojarzona głównie z Claude’em Shannonem. Kluczowa intuicja jest prosta: informację można traktować jak coś, co da się kodować w postaci decyzji binarnych. Dlatego „0/1” stało się uniwersalnym językiem komputerów.

W praktyce to właśnie ta idea pozwoliła budować: kompresję danych (mniej bitów na to samo znaczenie), szyfrowanie (mieszanie bitów według reguł), korekcję błędów (dodatkowe bity kontrolne), transmisję (bity na sekundę).

Bit vs bajt: b a B (najczęstsze pomyłki)

To klasyczny „zgrzyt” w IT: bit zapisujemy małą literą b, a bajt wielką literą B. Różnica jest ogromna:

  • 1 b = 1 bit
  • 1 B = 8 bitów = 8 b

Dlatego: 100 Mb/s (megabitów na sekundę) to nie to samo co 100 MB/s (megabajtów na sekundę). W uproszczeniu:

MB/s ≈ Mb/s ÷ 8 (pomijając narzut protokołów i realne warunki)

Przykład: internet 300 Mb/s w idealnych warunkach da maksymalnie około 37,5 MB/s pobierania (300 ÷ 8). A w praktyce bywa mniej, bo dochodzą nagłówki protokołów, Wi-Fi, obciążenie sieci i serwerów.

Jak komputer „widzi” bity?

W elektronice cyfrowej bit jest realizowany fizycznie: tranzystorami, kondensatorami, komórkami pamięci, stanami magnetycznymi. W programowaniu bit jest abstrakcją, ale mocno powiązaną ze sprzętem. Procesor operuje na rejestrach (np. 64-bitowych), pamięć jest adresowana bajtami, a pliki to sekwencje bajtów.

Pojęcia, które często pojawiają się obok bitu:

  • word — „słowo” procesora (np. 32 bity, 64 bity)
  • endianness — kolejność bajtów (little-endian / big-endian)
  • bit depth — „głębia bitowa” w grafice i audio (np. 8/10/12/16 bitów)

System dwójkowy i przykłady zapisu

Bit jest cyfrą w systemie dwójkowym. Liczby w binarnym zapisie powstają tak jak w dziesiętnym, tylko zamiast podstawy 10 mamy podstawę 2. Każda kolejna pozycja to rosnąca potęga dwójki:

Pozycje (od prawej):  1   2   4   8   16  32  64  128
Bity:                b0  b1  b2  b3  b4  b5  b6  b7

Przykład: 11001010 (8 bitów) to:

1*128 + 1*64 + 0*32 + 0*16 + 1*8 + 0*4 + 1*2 + 0*1
= 128 + 64 + 8 + 2
= 202

Taki ciąg 8 bitów to 1 bajt. Ten sam bajt może oznaczać: liczbę 202, jakiś znak w danym kodowaniu, albo fragment koloru/piksela — zależy od interpretacji.

Operacje bitowe: AND, OR, XOR, NOT i przesunięcia

Operacje bitowe są bardzo szybkie i występują wszędzie: od sterowników, przez kryptografię, po optymalizacje. Najważniejsze:

  • AND (&): 1 tylko wtedy, gdy oba bity są 1
  • OR (|): 1, gdy przynajmniej jeden bit jest 1
  • XOR (^): 1, gdy bity są różne
  • NOT (~): odwraca bit (0→1, 1→0)
  • SHIFT (<<, >>): przesunięcia w lewo/prawo

Przykład na liczbach (intuicyjnie)

Załóżmy:

a = 10101010
b = 11001100

AND:

a & b = 10001000

OR:

a | b = 11101110

XOR:

a ^ b = 01100110

Przesunięcia

Przesunięcie w lewo o 1 (<< 1) zwykle odpowiada mnożeniu przez 2 (w obrębie zakresu). Przesunięcie w prawo o 1 (>> 1) zwykle odpowiada dzieleniu przez 2.

00010110 (22)
<< 1  →  00101100 (44)

00101100 (44)
>> 1  →  00010110 (22)

Bitmaski i flagi: bardzo praktyczne zastosowanie

Bitmaski to jeden z najpraktyczniejszych powodów, dla których „bit” jest tak ważny. Zamiast przechowywać wiele wartości typu „tak/nie” osobno, można upchnąć je w jeden liczbowy „pakiet” bitów. Każdy bit oznacza jedną cechę (flagę).

Przykład: uprawnienia

Załóżmy trzy uprawnienia:

  • odczyt (R) = 1
  • zapis (W) = 2
  • wykonanie (X) = 4

Wtedy:

  • R = 001
  • W = 010
  • X = 100
  • R+W = 011 (czyli 3)
  • R+X = 101 (czyli 5)
  • R+W+X = 111 (czyli 7)

To dokładnie ta logika stoi m.in. za uprawnieniami w systemach Unix/Linux (np. 755, 644).

Bity w sieciach: Mb/s, maski, IP i narzut protokołów

Przepływność

W sieciach prędkość zwykle podaje się w bitach na sekundę (b/s). Stąd popularne: kb/s, Mb/s, Gb/s. Producenci i operatorzy prawie zawsze używają Mb/s, bo liczby wyglądają „lepiej” niż w MB/s.

Adresy IP a bity

Adres IPv4 ma 32 bity. Maska (np. /24) mówi, ile bitów opisuje sieć, a ile hosty. Przykład 192.168.1.0/24 oznacza, że:

  • 24 bity to część sieci
  • 8 bitów to część hosta (czyli 28 = 256 adresów, w praktyce mniej użytecznych)

Narzut protokołów

Nawet jeśli łącze ma X Mb/s, realny transfer pliku bywa mniejszy. Dzieje się tak, bo część transmisji to dane „pomocnicze”: nagłówki Ethernet/IP/TCP/UDP, potwierdzenia, retransmisje, a w Wi-Fi dodatkowo mechanizmy kontroli medium. To normalne.

Ile bitów potrzeba do… (ASCII/Unicode, kolory, audio, wideo)

Tekst

W klasycznym ASCII jeden znak to 7 bitów (często przechowywane w 8 bitach = 1 bajt). W nowoczesnych systemach króluje Unicode (np. UTF-8), gdzie jeden znak może zająć 1–4 bajty, zależnie od tego, jaki to znak (łaciński, polski, emoji, znaki azjatyckie itp.).

Kolory w grafice

Wiele obrazów używa modelu RGB po 8 bitów na kanał:

  • R: 8 bitów
  • G: 8 bitów
  • B: 8 bitów

Razem daje to 24 bity na piksel (czyli 16 777 216 możliwych kolorów). Gdy dochodzi kanał alfa (przezroczystość), mamy zwykle 32 bity na piksel (RGBA).

Audio

„Głębia bitowa” w audio (np. 16-bit, 24-bit) wpływa na zakres dynamiki i poziom szumów kwantyzacji. CD audio to klasycznie 16 bitów na próbkę przy 44,1 kHz. W studiu często spotkasz 24 bity.

Wideo

Wideo to ogrom danych, dlatego tak ważna jest kompresja. W praktyce liczy się nie tylko „ile bitów”, ale: rozdzielczość, klatkaż, kodek, bitrate, profil, sceny (szczegółowość, ruch). Stąd na platformach streamingowych kluczowy parametr to często bitrate (Mb/s).

Jednostki większe niż bit: k/M/G/T i wersje binarne (KiB/MiB)

W praktyce spotkasz dwa „światy” jednostek:

1) Dziesiętne (SI) — najczęściej marketing, dyski, sieci

  • 1 kb = 1000 b
  • 1 Mb = 1000 kb = 1 000 000 b
  • 1 Gb = 1 000 000 000 b

2) Binarne (IEC) — często systemy operacyjne, RAM, techniczne opisy

  • 1 Kib = 1024 b
  • 1 Mib = 1024 Kib
  • 1 Gib = 1024 Mib

Analogicznie dla bajtów: KB/MB/GB (dziesiętne) vs KiB/MiB/GiB (binarne). To tłumaczy, dlaczego „dysk 1 TB” w systemie może wyglądać jak ~931 GiB. To nie „brak” pamięci, tylko różnica definicji jednostek.

Typowe błędy i szybkie porady

  • Mylenie b i B: Mb/s to megabity, MB/s to megabajty. Różnica ×8.
  • „Mam 1 Gb internetu, czemu nie pobiera 1 GB/s?” Bo 1 Gb/s ≈ 125 MB/s w idealnych warunkach, a w praktyce zwykle mniej.
  • „Dysk ma mniej niż na pudełku” – producent liczy dziesiętnie (TB), system często pokazuje binarnie (TiB/GiB).
  • Bitrate to nie rozdzielczość: 1080p może wyglądać świetnie lub słabo — zależy od bitrate’u i kodeka.

FAQ

Czy bit zawsze oznacza 0 albo 1?

W klasycznej informatyce cyfrowej tak. Są jednak dziedziny (np. informatyka kwantowa), gdzie spotyka się inne modele. W codziennych zastosowaniach IT bit to po prostu 0/1.

Ile bitów ma bajt?

8 bitów. To standard powszechny praktycznie we wszystkich współczesnych systemach.

Skąd się bierze „64-bitowy system”?

Najprościej: z architektury procesora i szerokości rejestrów/adresowania. 64 bity pozwala m.in. adresować dużo większą przestrzeń pamięci niż 32 bity.

Co oznacza „głębia bitowa” w grafice?

To liczba bitów używana do opisu koloru (lub kanału). Np. 8 bitów na kanał w RGB daje 24 bity na piksel. Większa głębia to zwykle płynniejsze przejścia tonalne (mniej bandingu), szczególnie w HDR.

Podsumowanie

Bit to fundament całej informatyki: najmniejsza porcja informacji, z której buduje się bajty, pliki, obrazy, dźwięk, wideo i transmisję w sieciach. Zrozumienie bitu szybko rozjaśnia wiele „miejskich legend”: dlaczego prędkości internetu podaje się w Mb/s, czemu dysk ma „mniej”, jak działają maski sieciowe i czemu operacje bitowe są tak ważne w systemach i bezpieczeństwie.

Zamów wycenę
Polityka prywatności | Regulamin
Pro-link 2005-2020