Тема 1 "Кодування даних"
У1.
Кодування символів. двійкове кодування.
Кодування символів. двійкове кодування.
коротко про кодування
Сигнали в комп'ютері передаються за допомогою електричних імпульсів. Щоб розрізняти кожну використовувану цифру десятковоїсистеми, знадобилося б десять різних сигналів.
Числову інформацію комп'ютер обробляє в двійковій системі числення. Таким чином, числа в комп'ютері представлені послідовністю цифр 0 і 1, званих бітами (біт - один розряд двійкового числа). На початку 1980-х рр. процесори для персональних комп'ютерів були 8-розрядними, і за один такт роботи процесора комп'ютер міг обробити 8 біт, тобто максимально обробляється десяткове число нс могло перевищувати 111111112 (або 25510). Послідовність з восьми біт називають байтом, тобто 1 байт = 8 біт. Потім розрядність процесорів росла, з'явилися 16-, 32- і, нарешті, 64-розрядні процесори для персональних комп'ютерів, відповідно зросла і величина максимального числа, оброблюваного за один такт.
Використання двійкової системи для кодування цілих і дійсних чисел дозволяє за допомогою 8 розрядів кодувати цілі числа від 0 до 255, 16 біт дає можливість закодувати понад 65 тис. Значень.
серед популярних способів кодування інформації прикладом можуть бути:
- Азбука Морзе. Це спосіб кодування інформації, який досить довго використовувався у всьому світі, є яскравим прикладом кодування інформації. детально інформація з вікіпедії.
- Вчити азбуку морзе потрібно за спеціальною схемою, сприймати графічну інформацію та перетворювати в звукову (довгі та короткі сигнали). Наочно як виглядає це все в дії можна переглянути на відео.
Документальна стрічка "Історія криптографії та криптоаналіза". Дозволить уявити масштабність та необхідність застосування.