Кодування текстової інформації в комп'ютері
Комп'ютер - складний пристрій, за допомогою якого можна створювати, перетворювати і зберігати інформацію. Однак ЕОМ працює не зовсім зрозумілим для нас способом - графічні, текстові і числові дані зберігаються у вигляді масивів двійкових чисел. У даній статті ми розглянемо, як здійснюється кодування текстової інформації.
Те, що для нас є текстом, для ЕОМ - послідовність символів. Кожен символ являє собою певний набір нулів і одиниць. Під символами маються на увазі не тільки малі та великі літери латинського алфавіту, але також і розділові знаки, арифметичні знаки, службові символи, спеціальні позначення і навіть прогалину.
Двійкове кодування текстової інформації
При натисканні певної клавіші на внутрішній контролер надсилається електричний сигнал, який перетворюється в двійковий код. Код зіставляється з певним символом, який і виводиться на екран. Для представлення латинського алфавіту в цифровому форматі була створена міжнародна система кодування ASCII. У ній для запису одного символу необхідний 1 байт, отже, символ складається з восьмизначний послідовності нулів та одиниць. Інтервал запису - від 00000000 до 11111111, тобто кодування текстової інформації за допомогою даної системи дозволяє представити 256 символів. У більшості випадків цього буває достатньо.
ASCII розділена на дві частини. Перші 127 символів (від 00 млн до 01111111) є інтернаціональними і являють собою специфічні символи і букви англійського алфавіту. Друга ж частина - розширення (від 10 млн до 11111111) - призначена для представлення національного алфавіту, написання якого відмінно від латинського.
Кодування текстової інформації в ASCII побудовано за принципом зростаючої послідовності, тобто чим більше порядковий номер латинської літери, тим більше значення її ASCII-коду. Цифри і російська частина таблиці побудовані за тим же принципом.
Однак у світі існує ще кілька видів кодування для букв кирилиці. Найпоширеніші - це ЯКІ-8 (восьмібітного кодування, що застосовувалася вже в 70-х роках на перших руіфіцірованних ОС Unix), ISO 8859-5 (розроблена Міжнародним бюро стандартизації), СР 1251 (кодування текстової інформації, що застосовується в сучасних ОС Windows), а також 2-байтовая кодування Unicode, за допомогою якої можна уявити 65536 знаків. Таке різноманіття кодувань обумовлено тим, що всі вони розроблялися у різний час, для різних операційних систем і з різних міркувань. Через це часто виникають труднощі при перенесенні тексту з одного носія на іншій - при розбіжності кодувань користувач побачить лише набір незрозумілих значків. Як можна виправити дану ситуацію? В Word, наприклад, при відкритті документа видається повідомлення про проблеми з відображенням тексту і пропонується кілька варіантів перекодування.
Отже, кодування та обробка текстової інформації в надрах комп'ютера - процес досить складно організований і трудомісткий. Усі символи будь-якого алфавіту являють собою лише певну послідовність цифр двійковій системи, один осередок - це один байт інформації.