Компьютеру удобно иметь дело только с двумя состояниями
— «включено» (один) и «выключено» (ноль). Один такой символ (не важно, или 1)
занимает, как говорят программисты, бит
информации. Чтобы записать число, большее 1 (т. е. 2 — 10, 3 — 11, 4 — 100 и
т. д.), бита мало. Но пяти битов уже достаточно, чтобы научить нашу машину
латинскому алфавиту. В самом деле, в пяти клеточках мы уже можем расставить
все возможные комбинации из двух цифр от 00000 до 11111. Поскольку 100 000 —
это 32, таких комбинаций тоже 32, а в латинском алфавите только 36 букв.
Большая единица количества информации — байт — содержит
8 бит, т. е. 8 «клеточек» для записи нулей и единиц. Поскольку 100 000 000 —
это 256, в одном байте можно записать не только все буквы и цифры, но и всевозможные
знаки, какие только могут понадобиться. Тем не менее для записи чисел в машинной
памяти используются ячейки еще больших размеров — из двух байтов. В такой
ячейке помещается солидных размеров машинное слово.
Но человеку довольно трудно объясняться двоичными
словами, которыми оперирует компьютер. Чтобы облегчить общение, пришлось
научить машину понимать более «человеческий» язык. Этому языку до
человеческого еще слишком далеко. Так возникли языки программирования, о которых речь впереди.
В памяти компьютера есть место для очень большого
количества информации, тут уже не обойтись байтами и тем более битами. Так что
если речь идет об объемах памяти, говорят о килобайтах, мегабайтах и
гигабайтах. На дискету объемом в 1 мегабайт можно записать приличных размеров
книгу. А этот небольшой текст занимает 2560 байтов — всего-навсего...
|