Bajt – podstawowa jednostka danych w informatyce
Bajt to jedna z najczęściej używanych jednostek w informatyce. Spotykasz go przy rozmiarach plików, pamięci RAM, dysków, baz danych czy transferów. Choć wszystko w komputerze opiera się na bitach, to właśnie bajt jest praktyczną „cegiełką”, na której operują systemy operacyjne i programy. W tym artykule dokładnie wyjaśniamy, czym jest bajt, ile ma bitów, skąd się wziął i jak go poprawnie rozumieć w praktyce.
Czym jest bajt?
Bajt (ang. byte) to standardowa jednostka danych w informatyce, składająca się z 8 bitów. Bajt jest najmniejszą porcją informacji, którą większość komputerów potrafi przetwarzać i adresować bezpośrednio.
W praktyce bajt służy do zapisu:
- pojedynczego znaku tekstowego,
- małej liczby całkowitej,
- fragmentu obrazu lub dźwięku,
- elementów struktur danych.
Bajt a bit – kluczowa różnica
Podstawowa zależność, którą warto zapamiętać:
1 bajt (B) = 8 bitów (b)
Bit może przyjmować wartość 0 albo 1. Bajt natomiast, jako zbiór 8 bitów, może reprezentować:
28 = 256 różnych wartości (od 0 do 255).
To właśnie ta liczba sprawia, że bajt jest tak wygodny — pozwala zapisać litery, cyfry, znaki specjalne lub niewielkie liczby w jednym „pakiecie”.
Dlaczego bajt ma 8 bitów?
Historycznie bajt nie zawsze miał 8 bitów — w początkach informatyki spotykano bajty 6-, 7- czy 9-bitowe. Z czasem jednak 8 bitów okazało się najlepszym kompromisem:
- 256 możliwych wartości wystarczało na znaki i liczby,
- 8 jest potęgą dwójki — idealne dla elektroniki cyfrowej,
- łatwo dzielić i grupować dane w pamięci.
Wraz z popularyzacją kodu ASCII i architektur komputerów osobistych bajt 8-bitowy stał się światowym standardem.
Bajt w praktyce komputerowej
W codziennym użytkowaniu komputera niemal wszystko jest liczone w bajtach:
- rozmiar plików (np. 350 KB, 2 MB, 4 GB),
- pamięć RAM (np. 16 GB),
- pojemność dysków (np. 1 TB),
- bazy danych i logi systemowe.
Systemy operacyjne adresują pamięć właśnie bajtami, dlatego mówi się, że komputer jest „bajtowo adresowalny”.
Bajt a kodowanie znaków (ASCII, Unicode)
W klasycznym ASCII jeden znak zajmuje 1 bajt. Dzięki temu można było zapisać 128 (a później 256) znaków: litery alfabetu, cyfry i podstawowe symbole.
Współczesne systemy używają Unicode (najczęściej UTF-8), gdzie:
- znaki ASCII nadal zajmują 1 bajt,
- polskie znaki (ą, ć, ł…) zajmują zwykle 2 bajty,
- emoji mogą zajmować 4 bajty.
To wyjaśnia, dlaczego pliki tekstowe z emoji są większe niż te same pliki zawierające tylko litery alfabetu.
Bajty w pamięci i plikach
Każdy plik to po prostu sekwencja bajtów. System plików nie „wie”, czy dany bajt jest literą, pikselem czy fragmentem programu — to aplikacja nadaje tym bajtom znaczenie.
Przykładowo:
- plik tekstowy → bajty interpretowane jako znaki,
- obraz → bajty jako kolory pikseli,
- program → bajty jako instrukcje procesora.
Jednostki większe od bajta
Bajt jest punktem wyjścia do większych jednostek:
- 1 KB = 1000 B (dziesiętnie)
- 1 MB = 1000 KB
- 1 GB = 1000 MB
- 1 TB = 1000 GB
W systemach operacyjnych często spotyka się też wersje binarne: KiB, MiB, GiB, gdzie:
- 1 KiB = 1024 B
- 1 MiB = 1024 KiB
- 1 GiB = 1024 MiB
To właśnie ta różnica powoduje, że „dysk 1 TB” w systemie wygląda jak ok. 931 GiB.
Bajty a prędkość internetu
Prędkość internetu podaje się zazwyczaj w bitach na sekundę (Mb/s), a nie w bajtach. Dlatego rzeczywista prędkość pobierania plików (MB/s) jest około 8 razy mniejsza.
Przykład:
- łącze 200 Mb/s → maks. ok. 25 MB/s,
- łącze 600 Mb/s → maks. ok. 75 MB/s.
Najczęstsze błędy i nieporozumienia
- mylenie B (bajtów) z b (bitami),
- oczekiwanie, że 100 Mb/s = 100 MB/s,
- traktowanie KB i KiB jako tego samego,
- zakładanie, że każdy znak tekstu zajmuje 1 bajt (Unicode!).
FAQ
Ile bitów ma bajt?
Standardowo 8 bitów.
Czy bajt zawsze ma 8 bitów?
W nowoczesnej informatyce – tak. Historycznie bywało inaczej, ale dziś 8-bitowy bajt to globalny standard.
Czy 1 znak = 1 bajt?
Tylko w ASCII. W Unicode jeden znak może zajmować od 1 do 4 bajtów.
Podsumowanie
Bajt to podstawowa, praktyczna jednostka danych w informatyce. Składa się z 8 bitów i pozwala reprezentować znaki, liczby oraz fragmenty danych. Zrozumienie bajta ułatwia interpretację rozmiarów plików, pamięci, dysków oraz realnych prędkości internetu.