Одиниці виміру інформації


Одиниця виміру присутній в будь-якій області людської діяльності як загальноприйнятий еквівалент вимірювання чого-небудь. Обсяг, довжина, вага - найпоширеніші з існуючих. На різних континентах, на різних мовах і, незалежно від віросповідання, ми користуємося тими самими заходами вимірювання. Для людини це зручно, доступно і зрозуміло, не вимагає ніяких дій з конвертацією, яка часто призводить до помилок.

З появою в житті людини комп'ютера, виникла також потреба у створенні єдиної одиниці виміру кількості інформації. Та такий, щоб її сприймав і китайський, і американський, і будь-який інший комп'ютер світу. Всі програмісти світу могли нею користуватися, як єдиною мовою. Так з'явився двійковий логарифм біт.

Біт - одиниця виміру інформації, рівна кількості інформації і передбачає тільки два значення: «включено» і «вимкнено» (зображується у вигляді 1 і 0). Щоб на комп'ютері закодувати англійський алфавіт, досить шести бітів, але для реалізації більш складних процесів програмування будуть потрібні більш об'ємні одиниці виміру інформації, які запозичили латинські приставки з математики. Біт в ЕОМ - це електричний імпульс, що подається з командного пункту до виконавчого органу і відповідь імпульс про виконану роботу. 0 і 1 команди подаються в різних діапазонах напруги. Все це відбувається на такій великій швидкості, порівнянної з передачею інформації між мозком і нервовими закінченнями в людському організмі.

Всі мови програмування зав'язані на двійковому коді. Фото, перенесене в електронний вигляд, ігри і будь програмний софт, управління механізованого виробництва - все використовує єдині одиниці виміру інформації - біт.

Збираючись в ланцюжки імпульсів, біти утворюють нові одиниці вимірювання інформації: байт, кілобіт, кілобайт, мегабіт, мегабайт, гігабайт, терабайт, петабайт і так далі.

Байт вважається рівним восьми бітам і має другу назву - октет, так як у комп'ютерній історії мають місце рішення як 6-ти бітових байтів, так і 32-ох бітових, але це виключно програмне рішення деяких компаній в удосконаленні одиниці виміру інформації, що не дало плідних результатів. Основним же є восьмибитового байт, тому і названий загальноприйнятим назвою «октет».

Для полегшення роботи з інформацією, одиниці вимірювання кількості інформації кодуються в спеціально затверджені таблиці, типу UNICOD, і інші різновиди кодування за допомогою Windows OS або інший. Кожна з таблиць використовується за своїм призначенням. Для чорно-білого зображення використовується 8-розрядна двійкова система, а для кольорового вже 24-розрядна. Для написання тексту будь-якою мовою світу досить використовувати 16-розрядний UNICOD.

На даний момент пересічному користувачеві доступна тасамая велика одиниця виміру інформації, як терабайт - це 1024 гігабайти, які складають в свою чергу 1024 гігабайти. Якщо помножити на 1024, то отримаємо кількість мегабайт, які складають один терабайт. Якщо такі нескладні множення продовжувати до первісної одиниці виміру, то вийде о-го-го число, ні в один калькулятор не поміститься. Це і буде кількість двійкових кодів, потрібних для заповнення такого обсягу.

До речі, багато виробників при випуску комплектуючих використовують буквальне значення приставок кило-, мега- і гіга-. Це призводить до значних похибок і завуальованому обману. Тобто, жорсткий диск на 1 терабайт фізично може зберігати всього 950 мегабайт інформації. Комп'ютерне співтовариство вже давно запропонувало спосіб, як цього уникнути.

Приставки кило-, мега- і так далі залишаються зі своїми звичними множниками. Кіло - тисяча, мега - мільйон. Для комп'ютерної техніки правильно використовувати множник НЕ 1000, а 1024. Назва йому теж придумано - Кібі. Тобто, правильними приставками і множителями будуть: кібі-, мібі- і далі.

Поділися в соц мережах:

Увага, тільки СЬОГОДНІ!