Звідки з’явився байт?

Назву “байт” було вперше використано в червні 1956 року В. Бухгольцем (англ. Werner Buchholz) під час проєктування першого суперкомп’ютера IBM 7030 Stretch для пучка бітів числом від одного до шести, які одночасно передаються в пристроях введення-виведення. Пізніше, у межах того самого проєкту, байт було розширено до восьми біт.

Термін байт (byte), що позначає послідовність бітів, необхідних для комп’ютерного представлення одного символу (зазвичай, 8 біт), набагато молодший за свого попередника. Його “вигадав” 1964 року (може, трохи раніше) доктор Вернер Бухгольц (Dr. Werner Buchholz), який працював в IBM.

Байт (від англійського слова Byte) – це логічна одиниця інформації, що дорівнює восьми бітам, де кожен біт може набувати значення 0 або 1. З байтів виходять основні одиниці виміру комп’ютерної пам’яті – кілобайти (1024 байти), мегабайти (1024 кілобайти) і гігабайти (1024 мегабайти).

Одна десяткова цифра (0-9) потребує 4 біти (тетраду) для зберігання, отже, один 8-бітний байт може представляти дві десяткові цифри. За іншою версією, 8-бітний розмір байта пов’язаний з 8-бітовим же числовим представленням символів у кодуванні EBCDIC.