Інформація
Інформація b> - відомості про навколишній світ, про що протікають у ньому процесах, які сприймають живі організми, керуючі машини та інші інформаційні системи.
НЕ РЕЧОВИНА І НЕ ЕНЕРГІЯ ...
b>
Слово "інформація" латинське. За довге життя його значення зазнавало еволюції, то розширюючи, то гранично звужуючи свої кордони. Спочатку під словом "інформація" мали на увазі: "подання", "поняття", потім-"відомості", "передача повідомлень".
В останні роки вчені вирішили, що звичайне (всіма прийняте) значення слова "інформація" занадто еластично, розпливчасте, і дали йому таке значення: "міра визначеності в повідомленні".
Теорію інформації викликали до життя потреби практики. Її виникнення пов'язують з роботою Клода Шеннона "Математична теорія зв'язку", виданої в 1946р. Основи теорії інформації спираються на результати, отримані багатьма вченими. До другої половини XX століття земну кулю гудів від передається інформації, що біжить по телефонних і телеграфних кабелів і радіоканалах. Пізніше з'явилися електронні обчислювальні машини - переробники інформації. А для того часу основним завданням теорії інформації було, перш за все, підвищення ефективності функціонування систем зв'язку. Складність при проектуванні та експлуатації засобів, систем і каналів зв'язку в тому, що конструктору і інженеру недостатньо вирішити завдання з фізичних та енергетичних позицій. З цих точок зору система може бути найдосконалішим і економічною. Але важливо ще при створенні передавальних систем звернути увагу на те, яка кількість інформації пройде через цю передавальну систему. Адже інформацію можна виміряти кількісно, підрахувати. І роблять при подібних обчисленнях самим звичайним шляхом: абстрагуються від змісту повідомлення, як отрешаются від конкретності у звичних всім нам арифметичних діях (як від складання двох яблук і трьох яблук переходять до складання чисел взагалі: 2 +3).
Вчені заявили, що вони "повністю ігнорували людську оцінку інформації". Послідовного ряду з 100 букв, наприклад, вони приписують певне значення інформації, не звертаючи уваги, чи має ця інформація сенс і чи має, у свою чергу, сенс практичне застосування. Кількісний підхід - найбільш розроблена гілку теорії інформації. Згідно з цим визначенням сукупність 100 літер - фраза з 100 букв з газети, п'єси Шекспіра чи теореми Ейнштейна - має в точності однакову кількість інформації.
Таке визначення кількості інформації є надзвичайно корисним і практичним. Воно в точності відповідає завданню інженера зв'язку, який має передати всю інформацію, що міститься у поданій телеграмі, незалежно від цінності цієї інформації для адресата. Канал зв'язку бездушність. Передавальної системі важливо одне: передати потрібну кількість інформації за певний час. Як же підрахувати кількість інформації в конкретному повідомленні?
Оцінка кількості інформації грунтується на законах теорії ймовірностей, точніше, визначається через ймовірності подій. Це і зрозуміло. Повідомлення має цінність, несе інформацію тільки тоді, коли ми дізнаємося з нього про результат події, що має випадковий характер, коли воно в якійсь мірі несподівано. Адже повідомлення про вже відомому ніякої інформації не містить. Тобто якщо вам, припустимо, хтось зателефонує і скаже: "Днем буває світло, а вночі темно", то таке повідомлення вас здивує лише безглуздістю висловлювання очевидного і всім відомого, а не новиною, зазначеним у ньому.
Інша річ, наприклад, результат забігу на скачках. Хто прийде першим? Вихід тут важко передбачити.
Чим більше цікавить нас подія має випадкових результатів, тим цінніше повідомлення про його результат, тим більше інформації.
Повідомлення про подію, у якого тільки дві однаково можливих результату, містить одну одиницю інформації, яка називається бітом b>. Вибір одиниці інформації не випадковий. Він пов'язаний з найбільш поширеним двійковим способом її кодування при передачі і обробці.
Спробуємо хоча б у самому спрощеному вигляді уявити собі той загальний принцип кількісної оцінки інформації, який є наріжним каменем усієї теорії інформації.
Ми вже знаємо, що кількість інформації залежить від ймовірностей тих чи інших наслідків події. Якщо подія, як кажуть вчені, має два рівноймовірно результату, це означає, що ймовірність кожного результату дорівнює 1/2. Така ймовірність випадання "орла" або "решка" при киданні монети. Якщо подія має три рівноймовірно результату, то ймовірність кожного дорівнює 1/3. Зауважте, сума ймовірностей всіх результатів завжди дорівнює одиниці: ж який-небудь з усіх можливих результатів обов'язково настане.
Подія, як ви самі розумієте, може мати і неравновероятние наслідки. Так, при футбольному матчі між сильної і слабкої командами ймовірність перемоги сильної команди велика - наприклад, 4/5. Імовірність нічиєю набагато менше, наприклад 3/20. Імовірність же поразки зовсім мала.
Виходить, що кількість інформації - це міра зменшення невизначеності деякої ситуації b>. Різні кількості інформації передаються по каналах зв'язку, і кількість проходить через канал інформації не може бути більше його пропускної здатності b>. А її визначають по тому, яку кількість інформації проходить тут за одиницю часу.
Один з героїв роману Жуля Верна "Таємничий острів", журналіст Гедеон Спіллет, передавав по телефону розділ з Біблії, щоб його конкуренти не могли скористатися телефонним зв'язком. У цьому випадку канал був завантажений повністю, а кількість інформації дорівнювало нулю, бо абоненту передавалися відомі для нього відомості. Значить, канал працював вхолосту, пропустивши строго певну кількість імпульсів, нічим їх не нагрузив.
А між тим, чим більше інформації несе кожен з певного числа імпульсів, тим повніше використовується пропускна здатність каналу. Тому потрібно розумно кодувати інформацію, знайти економний, скупий мова для передачі повідомлень.
Інформацію "просівають" самим ретельним чином. У телеграфі часто зустрічаються букви, поєднання букв, навіть цілі фрази зображують більш коротким набором нулів та одиниць, а ті, що зустрічаються рідше, - більш довгим. У випадку, коли зменшують довжину кодового слова для часто зустрічаються символів і збільшують для рідко зустрічаються, говорять про ефективне кодування інформації b>.
Але на практиці досить часто трапляється, що код, який виник в результаті самого ретельного "просіювання", код зручний і економний, може спотворити повідомлення через перешкоди, які завжди, на жаль, бувають в каналах зв'язку: спотворення звуку в телефоні , атмосферні перешкоди в радіо, перекручення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди, або, як їх називають фахівці, шуми, обрушуються на інформацію. А від цього бувають найнеймовірніші і, природно, неприємні несподіванки.
Тому для підвищення надійності в передачі і обробці інформації доводиться вводити зайві символи - своєрідний захист від спотворення. Вони - ці зайві символи - не несуть справжнього змісту в повідомленні, вони надлишкові b>. З точки зору теорії інформації все те, що робить мову барвистим, гнучким, багатим відтінками, багатоплановий, багатозначним, - надмірність. Як надмірно з таких позицій листа Тетяни до Онєгіна! Скільки в ньому інформаційних надмірностей для короткого і всім зрозумілого повідомлення "Я вас люблю"! І як інформаційно точні мальовані позначення, зрозумілі всім і кожному, хто входить сьогодні в метро, де замість слів і фраз оголошень висять лаконічні символьні знаки, які вказують: "Вхід", "Вихід".
У зв'язку з цим корисно згадати анекдот, розказаний свого часу знаменитим американським вченим Бенджаменом Франкліном, про шляпочніке, запросив своїх друзів для обговорення проекту вивіски.
Передбачалося намалювати на вивісці капелюх і написати: "Джон Томпсон, шляпочнік, робить і продає капелюхи за готівкові гроші".
Один з друзів зауважив, що слова "за готівку" є зайвими - таке нагадування буде образливим для покупця. Інший знайшов також зайвим слово "продає", тому що само собою зрозуміло, що шляпочнік продає капелюхи, а не роздає їх задарма. Третьому здалося, що слова "шляпочнік" і "робить капелюхи" представляють собою непотрібну тавтологію, і останні слова були викинуті. Четвертий запропонував викинути і слово "шляпочнік" - намальована капелюх ясно говорить, хто такий Джон Томпсон. Нарешті, п'ятий запевняв, що для покупця зовсім байдуже, чи буде шляпочнік називатися Джоном Томпсоном чи інакше, і запропонував обійтися без цього зазначення.
Таким чином, в кінці кінців на вивісці не залишилося нічого, крім капелюхи.
Звичайно, якби люди користувалися тільки такого роду кодами, без надмірностей в повідомленнях, то все "інформаційні форми" - книги, доповіді, статті - були б гранично короткими. Але програли б у дохідливості і красу.
СХЕМА ПЕРЕДАЧІ ІНФОРМАЦІЇ
Усяке подія, всяке явище служить джерелом інформації.
Усяке подія, будь-яке явище може бути виражене по-різному, різним способом, різним алфавітом b>. Щоб інформацію більш точно й економно передати по каналах зв'язку, її треба відповідно закодувати.
Інформація не може існувати без матеріального носія, без передачі енергії. Закодоване повідомлення набуває вигляду сигналів-носіїв інформації. Вони-то і йдуть по каналу. Вийшовши на приймач, сигнали повинні знайти знову загальнозрозумілою вид.
З цією метою сигнали пробігають декодер, купуючи форму, зручну для абонента. Система зв'язку спрацювала, мета досягнута. Коли говорять про канали зв'язку, про системи зв'язку, частіше за все для прикладу беруть телеграф. Але канали зв'язку - поняття дуже широке, що включає безліч всяких систем, самих різних.
Щоб зрозумілий був багатоликий характер поняття "канал зв'язку", достатньо навести декілька прикладів.
При телефонної передачі джерело повідомлення - говорить. Кодуючий пристрій, що змінює звуки слів в електричні імпульси, - це мікрофон. Канал, по якому передається інформація - телефонний дріт. Та частина трубки, яку ми підносимо до вуха, виконує роль декодер. Тут електричні сигнали знову перетворюються на звуки. І нарешті, інформація надходить у "пристрій"-вухо людини на іншому кінці дроту. А ось каналсвязі зовсім іншої природи - живий нерв. Тут всі повідомлення передаються нервовим імпульсом. Але в технічних каналах зв'язку напрямок передачі інформації може змінюватися, а по нервовій системі передача йде в одному напрямку.
Ще один приклад - обчислювальна машина. І тут ті ж характерні риси. Окремі системи обчислювальної машини передають одна одній інформацію за допомогою сигналів. Адже обчислювальна машина-автоматичний пристрій для обробки інформації, як верстат - пристрій для обробки металу. Машина не створює з "нічого" інформацію, вона перетворює лише те, що в неї введено.
ЦІННІСТЬ ІНФОРМАЦІЇ
Ми вже знаємо, що кількісний метод - один з напрямів в теорії інформації - найбільш поширений і найбільш розроблений. Існують і інші методи. Вони, на противагу кількісним, намагаються вхопити зміст інформації, її цінність, її якість.
Кількість інформації в двох повідомленнях може бути абсолютно однаковим, а сенс абсолютно різним. Два слова, наприклад "Світ" і "Рим", містять однакову кількість інформації, складаються з одних і тих же букв, але зміст слів різний.
У повсякденному житті ми, як правило, оцінюємо отримані відомості зі смислової сторони: нові відомості сприймаємо не як певну кількість інформації, а як новий зміст. Чи можна обчислити зміст інформації, підрахувати його в повідомленні? Так, це пробує робити семантична теорія інформації b>. Ось ще один приклад і ще один напрям (прагматичне - ділове) у цій науці.
Пасажири їдуть в автобусі. Водій оголошує зупинку. Дехто виходить, інші не звертають уваги на слова водія - передану їм інформацію. Чому? Тому що інформація тут має різну цінність для одержувачів, у ролі яких в цьому прикладі виступають пасажири. Вийшов той, для кого інформація була цінна. Значить, цінність можна визначити як властивість інформації, яка впливає на поведінку її одержувача b>.
ВИСНОВОК
У теорії інформації в наш час розробляють багато систем, методів, підходів, ідей. Проте вчені вважають, що до сучасних напрямків в теорії інформації додадуться нові, з'являться нові ідеї. Як доказ правильності своїх припущень вони призводять "живий", що розвивається характер науки, вказують на те, що теорія інформації дивно швидко і міцно впроваджується в самі різні області людського знання. Теорія інформації проникла в фізику, хімію, біологію, медицину, філософію, лінгвістику, педагогіку, економіку, логіку, технічні науки, естетику. За визнанням самих фахівців, вчення про інформацію, що виникло в силу потреб теорії зв'язку і кібернетики, переступило їх рамки. І тепер, мабуть, ми маємо право говорити про інформацію як науковому понятті, що дає в руки дослідників теоретико - інформаційний метод, за допомогою якого можна проникнути в багато науки про живу і неживої природи, про суспільство, що дозволить не тільки поглянути на всі проблеми з новою сторони, але й побачити ще неувіденное. Ось чому термін "інформація" отримав в наш час широке розповсюдження, ставши частиною таких понять, як інформаційна система, інформаційна культура, навіть інформаційна етика.
Багато наукові дисципліни використовують теорію інформації, щоб підкреслити новий напрямок у старих науках. Так виникли, наприклад, інформаційна географія, інформаційна економіка, інформаційне право.
Але надзвичайно велике значення набув термін "інформація" у зв'язку з розвитком новітньої комп'ютерної техніки, автоматизацією розумової праці, розвитком нових засобів зв'язку та обробки інформації і особливо з виникненням інформатики.
Однією з найважливіших задач теорії інформації є вивчення природи і властивостей інформації, створення методів її обробки, зокрема перетворення самої різної сучасної інформації в програми для ЕОМ, за допомогою яких відбувається автоматизація розумової роботи - своєрідне посилення інтелекту, а отже, розвиток інтелектуальних ресурсів суспільства.