ПЕРЕЛІК ДИСЦИПЛІН:
  • Адміністративне право
  • Арбітражний процес
  • Архітектура
  • Астрологія
  • Астрономія
  • Банківська справа
  • Безпека життєдіяльності
  • Біографії
  • Біологія
  • Біологія і хімія
  • Ботаніка та сільське гос-во
  • Бухгалтерський облік і аудит
  • Валютні відносини
  • Ветеринарія
  • Військова кафедра
  • Географія
  • Геодезія
  • Геологія
  • Етика
  • Держава і право
  • Цивільне право і процес
  • Діловодство
  • Гроші та кредит
  • Природничі науки
  • Журналістика
  • Екологія
  • Видавнича справа та поліграфія
  • Інвестиції
  • Іноземна мова
  • Інформатика
  • Інформатика, програмування
  • Юрист по наследству
  • Історичні особистості
  • Історія
  • Історія техніки
  • Кибернетика
  • Комунікації і зв'язок
  • Комп'ютерні науки
  • Косметологія
  • Короткий зміст творів
  • Криміналістика
  • Кримінологія
  • Криптология
  • Кулінарія
  • Культура і мистецтво
  • Культурологія
  • Російська література
  • Література і російська мова
  • Логіка
  • Логістика
  • Маркетинг
  • Математика
  • Медицина, здоров'я
  • Медичні науки
  • Міжнародне публічне право
  • Міжнародне приватне право
  • Міжнародні відносини
  • Менеджмент
  • Металургія
  • Москвоведение
  • Мовознавство
  • Музика
  • Муніципальне право
  • Податки, оподаткування
  •  
    Бесплатные рефераты
     

     

     

     

     

     

         
     
    Інформація та способи її подання
         

     

    Інформатика, програмування

    Інформація та способи її подання

    Інформатика -- наука про закони і методи накопичення, обробки і передачі інформації. У найбільш загальному вигляді поняття інформації можна сформулювати так:

    Інформація -- це відображення предметного світу за допомогою знаків і сигналів.

    Прийнято говорити, що рішення задачі на ЕОМ, у результаті чого створюється нова інформація, виходить шляхом обчислень. Потреба в обчисленнях пов'язана з вирішенням завдань: наукових, інженерних, економічних, медичних та інших.

    Яким чином відшукується рішення задачі?

    Завдання стає розв'язною, якщо знайдено правило, спосіб отримання результату. У інформатики таке правило називають алгоритмом.

    Зміст алгоритму - складові його дії і об'єкти, над якими ці дії виконуються, - визначають кошти, які повинні бути присутніми в машині, призначеної для виконання алгоритму.

    При вирішенні завдання ЕОМ вводить в себе необхідну інформацію і через якийсь час виводить (друкує, малює) результати - інформацію, для отримання якої і була створена. Таким чином, робота ЕОМ - це своєрідні маніпуляції з інформацією. І, отже, ЕОМ - це технічний засіб інформатики. Що таке

    інформація? Яка її природа?

    У буденному життя під інформацією розуміють всякого роду повідомлення, відомості про що-небудь, які передають і отримують люди.

    Самі по собі мова, текст, цифри - не інформація. Вони лише носії інформації. Інформація міститься в слів того, текстах книг, колонках цифр, в показаннях годин, термометрів та інших приладів. Повідомлення, відомості, тобто інформація, є причиною збільшення знань людей про реальному світі. Отже, інформація відображає щось, властиве реального світу, який пізнається в процесі одержання інформації: до моменту отримання інформації щось було невідомо, або, інакше, не визначено, і завдяки інформації невизначеність була знята, знищена.

    Розглянемо приклад. Хай нам відомий будинок, в якому проживає наш знайомий, а номер квартири невідомий. У цьому випадку місцеперебування знайомого в якійсь мірі не визначено. Якщо в будинку всього дві квартири, ступінь невизначеності невелика. Але якщо в будинку 200 квартир - невизначеність досить велика.

    Цей приклад наштовхує на думку, що невизначеність пов'язана з кількістю можливостей, тобто з різноманітністю ситуацій. Чим більше розмаїття, тим більше невизначеність.

    Інформація, знімає невизначеність, існує остільки, оскільки існує різноманітність. Якщо ні різноманітності, немає невизначеності, а, отже, немає і інформації.

    Отже, інформація - це відображення різноманітності, яка властива об'єктів і явищ реального світу. І, таким чином, природа інформації об'єктивно пов'язана з різноманітністю світу, і саме розмаїтість є джерелом інформації.

    Які форми представлення інформації?

    Інформація -- дуже ємне поняття, в яке вміщається весь світ: все розмаїття речей і явищ, вся історія, всі томи наукових досліджень, твори поетів і прозаїків. І все це відбивається у двох формах - безперервної і дискретної. Звернемося до їх сутності.

    Об'єкти і явища характеризуються значеннями фізичних величин. Наприклад, масою тіла, його температурою, відстанню між двома точками, довжиною шляху (пройденого рухомим тілом), яскравістю світла і т.д. Природа деяких величин така, що величина може приймати принципово будь-які значення в якомусь діапазоні. Ці значення можуть бути як завгодно близькі один до одного, исчезающе малоразлічіми, але все-таки, хоча б в принципі, змінюватися, а кількість значень, яке може приймати така величина, нескінченно велика.

    Такі величини називаються неперервними величинами, а інформація, яку вони несуть у собі, безперервної інформацією.

    Слово "Безперервність" чітко виділяє основна властивість таких величин - відсутність розривів, проміжків між значеннями, які може приймати величина. Маса тіла - безперервна величина, що приймає будь-які значення від 0 до нескінченності. Те ж саме можна сказати про багатьох інших фізичних величинах - відстані між точками, площі фігур, напрузі електричного струму.

    Крім безперервних існують інші величини, наприклад, кількість людей у кімнаті, кількість електронів в атомі і т.д. Такого роду величини можуть приймати тільки цілі значення, наприклад, 0, 1, 2, ..., і не можуть мати дрібних значень. Величини, приймаються не всілякі, а лише цілком певні значення, називають дискретними. Для дискретної величини характерно, що всі її значення можна пронумерувати цілими числами 0,1,2 ,...

    Приклади дискретних величин:

    геометричні фігури (трикутник, квадрат, коло);

    літери алфавіту;

    кольори веселки;

    Можна стверджувати, що різниця між двома формами інформації обумовлено принциповою відмінністю природи величин. У той же час безперервна і дискретна інформація часто використовуються спільно для подання відомостей про об'єкти і явища.

    Приклад. Розглянемо твердження "Це коло радіуса 8,25".

    Тут:

    "коло" -- дискретна інформація, що виділяє певну геометричну фігуру з усього різноманітності фігур;

    значення "8,25" - Безперервна інформація про радіусі кола, який може приймати незліченна безліч значень.

    Що об'єднує безперервні і дискретні величини?

    Як простий приклад, що ілюструє наші міркування, розглянемо пружинні ваги. Маса тіла, яка вимірюється на них, - величина безперервна за своєю природою. Уявлення про масу (інформацію про масу) містить в собі довжина відрізка, на яку переміщається покажчик ваг під впливом маси вимірюваного тіла. Довжина відрізка - теж безперервна величина.

    Щоб охарактеризувати масу, у вагах традиційно використовується шкала, отградуірованная, наприклад, у грамах. Нехай, наприклад, шкала конкретних ваг має діапазон від 0 до 50 грамів.

    При цьому маса буде характеризуватися одним з 51 значень: 0, 1, 2, ..., 50, тобто дискретним набором значень. Таким чином, інформація про безперервну величиною, масі тіла, придбала дискретну форму.

    Будь-яку безперервну величину можна представити в дискретної формі. І механізм такого перетворення очевидний.

    Задамося питанням, чи можна за дискретного поданням відновити безперервну величину. І відповідь буде така: так, в якійсь мірі можна, але зробити це не так просто, і відновлюваний образ може відрізнятися від оригіналу.

    Як представляти безперервну інформацію?

    Для подання безперервної величини можуть використовуватися найрізноманітніші фізичні процеси.

    У розглянутому вище прикладі ваги дозволяють величину "маса тіла" представить "довжиною відрізка", на який переміститься покажчик ваг (стрілка). У свою чергу, механічне переміщення можна перетворити, наприклад, в "напруга електричного струму". Для цього можна використовувати потенціометр, на який подається постійне напруга, наприклад, 10 вольт, від джерела живлення. Движок потенціометра можна пов'язати з покажчиком ваг. У такому разі зміна маси тіла від 0 до 50 грамів призведе до переміщення движка в межах довжини потенціометра (від 0 до L міліметрів) і, отже, до зміни напруги на його виході від 0 до 10 вольт.

    Висновки.

    1. Інформація про масі тіла може представлятися, взагалі кажучи, багатьма способами.

    2. В якості носіїв безперервної інформації можуть використовуватися будь-які фізичні величини, що приймають безперервний "набір" значень (правильніше було б сказати приймають будь-яке значення всередині деякого інтервалу).

    Відзначимо, що фізичні процеси (переміщення, електричний струм тощо) можуть існувати самі по собі або використовуватися, наприклад, для передачі енергії. Але в ряді випадків ці ж процеси застосовуються як носіїв інформації. Щоб відрізнити одні процеси від інших, введено поняття "сигнал".

    Якщо фізичний процес, тобто якась властива йому фізична величина, що несе в собі інформацію, то говорять, що такий процес є сигналом. Саме в цьому сенсі користуються поняттями "електричний сигнал", "світловий сигнал" і т.д. Таким чином, електричний сигнал - не просто електричний струм, а струм, величина якого несе в собі якусь інформацію.

    Як представляти дискретну інформацію?

    Як вже говорилося, дискретність - це випадок, коли об'єкт або явище має кінцеве (рахункове) число різноманітність. Щоб виділити конкретне з усього можливого, потрібно кожному конкретному дати оригінальне ім'я (інакше, перерахувати). Ці імена і будуть нести в собі інформацію про об'єкти, явища і т. п.

    В якості імен часто використовують цілі числа 0, 1, 2, ... Так іменуються (нумеруються) сторінки книги, будинки вздовж вулиці, ризики на шкалах вимірювальних приладів. За допомогою чисел можна перенумерувати всі "розмаїття" реального світу. Саме така цифрова форма подання інформації використовується в ЕОМ.

    У буденному життя, тим не менше, цифрова форма подання інформації не завжди зручна. Першість належить слову! Традиційно інформація про об'єкти і явища навколишнього світу представляється у формі слів і їх послідовностей.

    Основний елемент у цій формі - слово. Слово - ім'я об'єкта, дії, властивості тощо, з допомогою якого виділяється іменоване поняття в усному мовленні або в письмовій формі.

    Слова будуються з літер певного алфавіту (наприклад, А, Б, ..., Я). Крім букв використовуються спеціальні символи - розділові знаки, математичні символи +, -, Знак інтеграла, знак суми і т.п. Все розмаїття використовуваних символів утворює алфавіт, на основі якого будуються найрізноманітніші об'єкти:

    з цифр -- числа;

    з букв -- власне слова,

    з цифр, букв і математичних символів - формули і т.д.

    І всі ці об'єкти несуть в собі інформацію:

    числа -- інформацію про значення;

    слова -- інформацію про імена і властивості об'єктів;

    формули -- інформацію про залежності між величинами і т.д.

    Ця інформація (і це очевидно) має дискретну природу і представляється у вигляді послідовності символів. Про таку інформації говорять як про особливий вид дискретної інформації і називають цей вид символьної інформацією.

    Наявність різних систем писемності, у тому числі таких, як ієрогліфічне лист, доводить, що одна й та ж інформація може бути представлена на основі самих різних наборів символів і самих різних правил використання символів при побудові слів, фраз, текстів.

    З цього твердження можна зробити наступний висновок:

    Різні алфавіти володіють однаковою "образотворчої можливістю", тобто за допомогою одного алфавіту можна представити всю інформацію, яку вдалося представити на основі іншого алфавіту. Можна, наприклад, обмежитися алфавітом з десяти цифр - 0, 1, ..., 9 і з використанням тільки цих символів записати текст будь-якої книги або партитуру музичного твору. При цьому звуження алфавіту до десяти символів не призвело б до будь-яких втрат інформації. Більш того, можна використовувати алфавіт тільки з двох символів, наприклад, символів 0 і 1. І його "образотворча можливість" буде такою ж.

    Отже, символьна інформація може представлятися з використанням самих різних алфавітів (наборів символів) без спотворення змісту і сенсу інформації: при необхідності можна змінювати форму представлення інформації - замість загальноприйнятого алфавіту використовувати будь-хто інший, штучний алфавіт, наприклад, двома літерами.

    Форма представлення інформації, яка не є природною, загальноприйнятої, називається кодом. Коди широко використовуються в нашому житті: поштові індекси, телеграфний код Морзе та ін Широко застосовуються коди і в ЕОМ і в апаратурі передачі даних. Так, наприклад, широко відомо поняття "програмування в кодах".

    Крім розглянутих існують й інші форми представлення дискретної інформації. Наприклад, креслення і схеми містять в собі графічну інформацію.

    Як виміряти інформацію?

    Як вже йшлося у прикладі з номером квартири, одні відомості можуть містити в собі мало інформації, а інші - багато. Розроблено різні способи оцінки кількості інформації. У техніці найчастіше використовується спосіб оцінки, запропонований в 1948 році основоположником теорії інформації Клодом Шенноном. Як було відзначено, інформація знищує невизначеність. Ступінь невизначеності прийнято характеризувати за допомогою поняття "вірогідність".

    Імовірність -- величина, яка може приймати значення в діапазоні від 0 до 1. Вона може розглядатися як міра можливості настання якого-небудь події, що може мати місце в одних випадках і не мати місця в інших.

    Якщо подія ніколи не може статися, його ймовірність вважається рівною 0. Так, ймовірність події "Завтра буде 5 серпня 1832" дорівнює нулю в будь-який день, крім 4 серпня 1832. Якщо подія відбувається завжди, його ймовірність дорівнює 1.

    Чим більше ймовірність події, тим вище впевненість в тому, що воно відбудеться, і тим менше інформації містить повідомлення про цю подію. Коли ж імовірність події мала, повідомлення про те, що воно сталося, дуже інформативно.

    Кількість I інформації, що характеризує стан, в якому перебуває об'єкт, можна визначити, використовуючи формулу Шеннона:

    I = - (p [1] * log (p [1]) + p [2] * log (p [2 ])+...+ p [n] * log (p [n])),

    тут

    n - число можливих станів;

    p [1 ],... p [n] -- імовірності окремих станів;

    log () -- функція логарифма при основі 2.

    Знак мінус перед сумою дозволяє отримати позитивне значення для I, оскільки значення log (p [i]) завжди не позитивно.

    Одиниця інформації називається бітом. Термін "біт" запропоновано як абревіатура від англійського словосполучення "Binary digiT", що перекладається як "двійкова цифра ".

    1 біт інформації - кількість інформації, за допомогою якого виділяється одне з двох рівноймовірно станів об'єкта.

    Розглянемо приклад.

    Нехай є два об'єкти. З кожного з них у певні моменти часу диспетчеру передається одне з двох повідомлень: включений або виключений об'єкт. Диспетчер відомі типи повідомлень, але невідомо, коли і яке повідомлення надійде.

    Нехай також, об'єкт А працює майже без перерви, тобто ймовірність того, що він включений, дуже велика (наприклад, р_А_вкл = 0,99 і р_А_викл = 0,01, а об'єкт Б працює інакше і для нього р_Б_вкл = р_Б_викл = 0,5).

    Тоді, якщо диспетчер отримує повідомлення те, що А включений, він отримує дуже мало інформації. З об'єктом Б справи йдуть інакше.

    Підрахуємо для цього прикладу середня кількість інформації для зазначених об'єктів, яке отримує диспетчер:

    Об'єкт А: I = - (0,99 * log (0,99) +0,01 * log (0,01)) = 0,0808.

    Об'єкт Б: I = - (0,50 * log (0,50) +0,50 * log (0,50)) = 1.

    Отже, кожне повідомлення об'єкта Б несе 1 біт інформації.

    Формула Шеннона, в принципі, може бути використана і для оцінки кількості інформації у безперервних величинах.

    При оцінці кількості дискретної інформації часто використовується також формула Хартлі:

    I = log (n),

    де n - число можливих рівноймовірно станів;

    log () - функція логарифма при основі 2.

    Формула Хартлі застосовується у випадку, коли ймовірність станів, у яких може знаходитися об'єкт, однакові.

    Наведемо приклад. Нехай об'єкт може знаходитися в одному з восьми рівноймовірно станів. Тоді кількість інформації, що надходить в повідомленні про те, в якому саме він знаходиться, буде так само

    I = log (8) = 3 [біта].

    Оцінимо кількість інформації в тексті.

    Точно відповісти на запитання, яка кількість інформації містить 1 символ у слові або тексті, досить складна справа. Воно вимагає дослідження питання про частоти використання символів і всякого роду сполучень символів. Це завдання вирішується Припустимо, що текст будується на основі 64 символів, і частота появи кожного з них однакова, тобто всі символи рівноймовірно.

    Тоді кількість інформації в одному символі буде одно

    I = log (64) = 6 [біт].

    З двох символів даного алфавіту може бути утворене n = 64 * 64 = 4096 різних сполучень. Отже, два символи несуть в собі I = log (4096) = 12 біт інформації.

    Оцінимо кількість інформації, що міститься в числах.

    Якщо припустити, що цифри 0, 1, ..., 9 використовуються однаково часто (рівноймовірно), то

    одна цифра містить I = log (10) = 3,32 [біт];

    чотиризначне число з діапазону [0 .. 9999], якщо всі його значення рівноймовірно, містить

    I = log (10000) = 13,28 [біт];

    а восьмирозрядному число - I = log (100000000) = 26,56 [біта].

    Отже, кількість інформації в повідомленні залежить від числа різноманіття, притаманних джерела інформації та їх ймовірностей.

    Повторимо основні положення, розглянуті вище.

    1. Інформація -- відображення предметного або уявного світу за допомогою знаків і сигналів.

    2. Інформація може існувати або в безперервній, або в дискретної формах.

    3. Інформація про чим-небудь може бути представлена багатьма способами. В якості носіїв інформації можуть використовуватися різноманітні фізичні величини такої ж природи (для безперервної інформації - безперервні фізичні величини, для дискретної - дискретні).

    4. Фізичний процес є сигналом, якщо будь-яка притаманна йому фізична величина несе в собі інформацію.

    5. Щоб представити дискретну інформацію, треба перерахувати (поіменувати) все різноманіття, притаманні об'єкту або явища (кольори веселки, види фігур та ін.)

    Дискретна інформація може надаватися:

    числами (як цифрова),

    символами деякого алфавіту (символьний),

    графічними схемами та кресленнями (графічна).

    6. Дискретна інформація може використовуватися і для представлення безперервної. Зручною формою дискретної інформації є символьний.

    7. Різні алфавіти володіють однаковою "образотворчої силою": за допомогою одного алфавіту можна представити всю інформацію, яку вдавалося представити на основі іншого алфавіту. А значить, інформацію про все що оточує людину світі можна представити в дискретної формі з використанням алфавіту, що складається тільки з двох символів (тобто з використанням двійкової цифрової форми).

    8. Форма представлення інформації, яка не є природною, загальноприйнятої, називається кодом.

    Широко відомі такі коди, як поштові індекси, нотний запис музики, телеграфний код Морзе, цифровий запис програм для ЕОМ (програмування в кодах), перешкодозахищеність коди в системах передачі даних.

    9. Інформація знищує невизначеність знань про навколишній світ. Ступінь невизначеності прийнято характеризувати за допомогою поняття "вірогідність".

    Імовірність -- величина, яка може приймати значення в діапазоні [0,1] і яка може розглядатися як міра можливості настання якої-небудь події. Якщо подія ніколи не може статися, його ймовірність вважається рівною 0, а якщо подія відбувається завжди, його ймовірність дорівнює 1.

    Для оцінки кількості інформації в техніці найчастіше використовується спосіб, запропонований Клодом Шенноном. Для випадку, коли всі стани, у яких може знаходитися об'єкт, рівноймовірно, застосовують формулу Хартлі. Одна одиниця інформації називається бітом.

    Список літератури

    Для підготовки даної роботи були використані матеріали з сайту http://referat2000.bizforum.ru/

         
     
         
    Реферат Банк
     
    Рефераты
     
    Бесплатные рефераты
     

     

     

     

     

     

     

     
     
     
      Все права защищены. Reff.net.ua - українські реферати ! DMCA.com Protection Status