Для любого источника, имеющего k различных сигналов (читай символов), количество информации согласно теории известного американского инженера Клода Шеннона, равно:
I = - сумма(Pi*log(Pi)) по i от 1 до k,
где Pi - вероятность i-того сигнала в источнике. Если логарифм берется по основанию 2, то получим информацию в битах. Возможны и другие основания логарифма, тогда и единицы измерения информации будут другими. Пусть не смущает знак "-" перед суммой - логарифмы вероятностей будут отрицательными, но сама информация - положительной.
Информация измеряется энтропией, т.е. неопределенностью следующего значения последовательности (очень упрощенно говоря). 1024 повторений "01" дадут 2КБ последовательности, но всего 12 бит информации (01 повторенные 2 в 10 раз). Условно говоря информации в тексте содержится примерно как размер файла после архивирования.
Единицей информации принято считать 1 бит который равен одному разряду в двоичной системе счисления. А потом уже идут байты, килобайты...
В каждом байте 8 бит.
В килобайте 1024 байта, и так далее.
Слово бит произошло от Английского "binary digit" — двоичное число.
Информация измеряется в байтах) После байта идут Килобайты Мегобайты Гегобайты и Тарабайты.
Сначала байты, потом Килобайты, Мегобайты, Гегобайты и Тарабайты)
Добавить комментарий