Міністерство загальної та професійної освіти p>
Російської Федерації p>
Кубанського державного ТЕХНОЛОГІЧНИЙ p>
УНІВЕРСИТЕТ p>
Кафедра обчислювальної техніки та автоматизованих систем управління
ПОЯСНЮВАЛЬНА ЗАПИСКА до курсової роботи p>
з дисципліни p>
"Інформатика" p>
на тему p>
«Основні закономірності розвитку комп'ютерних систем » p>
| Виконав студент гр. | 01-КТ-21 Воловіков О.П. |
| | |
| Допущений до захисту | |
| Керівник проекту | професор, к.т.н., Частиков А.П. |
| Нормоконтроллер | |
| | (Підпис, дата, розшифрування підпису) | p>
Захищений ___________________< br>Оценка___________________ p>
(дата) p>
| Члени комісії | |
| | |
| | |
| | (Підпис, дата, розшифрування підпису) | p>
Кубанського державного ТЕХНОЛОГІЧНИЙ p>
УНІВЕРСИТЕТ p>
Кафедра обчислювальної техніки та автоматизованих систем управління p>
Зав. кафедрою p>
професор, д.т.н.________Ключко В.І. p>
ЗАВДАННЯ p>
на курсове проектування p>
Студенту: 01-КТ-21 групи 1 курсуфакультету КТАСспеціальності 2204 p>
Воловікова О.П. p>
(п. і шифр) p>
Тема проекту: «Основні закономірності розвитку комп'ютерних систем» p >
Зміст завдання: виявити основні тенденції та закономірності розвиткукомп'ютерних систем (на основі їх сучасного стану) p>
Обсяг роботи:пояснювальна записка до проекту: 23 аркуша формату А4 p>
Рекомендована література: Частиков А. П. Історія комп'ютера p>
Термін виконання проекту: з "___"_________ по
"___"________ 2001
Термін захисту: "___"________ 2001м.
Дата видачі завдання: "___"________ 2001м.
Дата здачі проекту на кафедру: "___"________ 2001р. p>
Керівник проекту: професор, к.т.н., Частиков
А.П. p>
Завдання прийняв студент p>
(підпис, дата) p>
РЕФЕРАТ p>
«Основні закономірності розвитку комп'ютерних систем» p>
Автор: студент групи 01-КТ-21 Воловіков О.П.
Науковий керівник: професор, к.т.н., Частиков А.П. p>
Обсяг роботи: 23 л.
Кількість ілюстрацій: 1
Кількість таблиць: 0
Кількість джерел: 5 p>
Перелік ключових слів: «комп'ютерні системи», «розвиток комп'ютерів»,
«Закономірність», «еволюція», «історія», «тенденції», «апаратні засоби» p>
Основні характеристики роботи: p>
Дана робота представляє собою результат невеликий дослідноїдіяльності, метою якої є виявлення основних закономірностей ітенденцій, що простежуються в процесі більш ніж п'ятдесятирічного розвиткукомп'ютерних систем. p>
В процесі написання реферату використовувались науково-популярнідослідження (опубліковані в деяких комп'ютерних журналах і web -виданнях) різних фахівців у галузі інформаційних технологій, атакож дані, взяті з власного досвіду автора, причому наголос робився насучасний стан даної області. Наведені твердженняілюструються достатньою кількістю яскравих і зрозумілих прикладів. p>
Необхідно також відзначити, що виявлені закономірності та тенденціїне підтверджуються математичними висновками або будь-якими теоріями, але їхістинність грунтується на багаторічному досвіді розвитку інформаційнихтехнологій, а також підтверджується аналітичними роботами багатьохнезалежних дослідників. p>
ЗМІСТ p>
| 1 Введення | 5 |
| | |
| 2 Основна частина | 7 |
| 2.1 Спадкування основних принципів організації | 7 |
| 2.2 Речовий-енергетична і інформаційна цілісність | 7 |
| | 8 |
| 2.3 Підвищення функціональної і структурної цілісності КС | 8 |
| | |
| 2.4 Спадкування основних функцій, що розвиваються систем | 9 |
| 2.5 Адекватність функціонально-структурної організації призначенням | 9 |
| системи | 11 |
| 2.6 Взаємозв'язок показників якості комп'ютерних систем | 12 |
| 2.7 Відносне і тимчасовий дозвіл протиріч у КС | |
| | 14 |
| 2.8 Апаратні та програмні рішення | 15 |
| | 16 |
| 2.9 Удосконалення технологій створення КС, а також їх | |
| спадкоємність | 22 |
| | |
| 2.10 Падіння вартості на комп'ютери | 23 |
| | |
| 2.11 Майбутні напрямки розвитку функцій, реалізованих КС | |
| | |
| 3 Висновок | |
| | |
| 4 Список використаних джерел | | p>
1 Введення p>
Перші обчислювальні машини, розроблені до початку п'ятдесятихроків, отримали назву ЕОМ першого покоління. (Класифікація запоколінь в основному ставилася до технології виробництва компонентів.
Перше покоління - електронні лампи, другий - транзистори, третє --мікросхеми.) Тоді ж формуються два основних напрямки в архітектуріцифрових обчислювальних машин - мейнфрейми (mainframes) і міні-ЕОМ.
Останні з'явилися в 1955-1956 рр.. Серед фірм, які зосередилисвої зусилля в цій області, можна виділити Burroughs (комп'ютер E-101),
Bendix (G-15), Librascope (LGP-30). Принциповою відмінністю першогопокоління малих ЕОМ від сучасних «персоналок» є фіксованаконфігурація апаратних засобів. Управління зовнішніми пристроями булоцентралізованим, і підключити будь-яке нове обладнання булонеможливо. Незручність такого підходу очевидно, і в більш пізніхмодифікаціях G-15 цей недолік було усунуто. Пам'ять на магнітномубарабані не допускала розширення, і користувач отримував в своєрозпорядження наступний ресурс: 220 12-розрядних десяткових слів у E-101;
2176 29-розрядних двійкових слів у G-15; 4096 32-розрядних двійкових слів у
LGP-30. З наведених характеристик видно, що байтовий формат даних вп'ятдесяті роки ще не став стандартом. Система команд LGP-30 включала всебе 16 команд, G-15 надавала програмісту великі можливості (більш
100 команд). Програмування часто велося безпосередньо в машиннихкодах. p>
Однак, говорячи про обчислювальної техніки тих часів, необхіднозгадати і про інше, зовсім не схожому на сучасні комп'ютерипринципі побудови ЕОМ - аналоговому або аналого-цифровому. Засобиобчислювальної техніки, що використовувалися тоді в складі систем автоматики,були виключно аналоговими. Близькість цих наукових напрямівпосилювалася ще й тим, що проектування аналогових обчислювальних машинспиралося на ту ж теоретичну базу, що і проектування системуправління. Стійкість системи автоматичного керування та збіжністьобчислювального процесу в аналогової машині були дуже схожі за своїмопису. Хоча сьогодні аналогова обчислювальна техніка як різновидкомп'ютерів і не існує, але методи вирішення завдань, накопичені задосить довгу історію існування цих обчислювальних машин,використовуються в обладнанні, заснованому на застосуванні процесорів цифровоїобробки сигналів (ЦОС). Розвиток же цифрових обчислювальних машин,які з часом отримали славне ім'я комп'ютери, починаючи з п'ятдесятихроків нерозривно пов'язане з розробкою програмного забезпечення. p>
У цей історичний період існували програмісти,розглядали засоби автоматизації своєї праці як інструмент длялінивих, що псує якість продукції - тобто прикладної програми. Потрібносказати, що в той час ці твердження дійсно підтверджувалисяпрактикою, яка, як відомо, є критерієм істини. Так само, яканалогові машини за багатьма показниками перевершували цифрові, так іпрограми, написані безпосередньо в машинних кодах, виявлялися коротше,ніж результат трансляції програм, підготовлених з використаннямалгоритмічних мов. Таким чином, правильний шлях у ті роки визначалаНЕ практична кмітливість, а здатність передбачити прогрес у суміжнихобластях. У дусі часу можна було б навіть поставити марксистськуконцепцію про роль практики в іронічні лапки, якщо б і в Євангелії НЕбуло прямої вказівки на те, що пророків справжніх треба відрізняти відпророків помилкових по їхніх справах, тобто по практиці. Тому не будемоіронізувати з приводу помилкових наукових ідей п'ятдесятих років. Саме вці роки був запропонований алгоритмічну мову FORTRAN, що отримавзгодом іронічну назву «безсмертний». Вже починає створюватисяпрограмне забезпечення у вигляді досить значних бібліотекстандартних підпрограм. p>
Багато води утекло з тих пір, і зараз можна по-різному міркувати протехнологічних напрямках півстолітньої давності і чи мали вони той чиінший успіх. Однак очевидно одне: за ці п'ятдесят із лишком роківкомп'ютерна індустрія, а разом з нею і що розглядаються в даній роботікомп'ютерні системи (КС) зазнали безліч кількісних іякісних змін. Ми ж, власне, спробуємо в деякій міріпростежити шлях еволюції і виявити найбільш важливі закономірності врозвитку цих систем, спираючись більше на нинішній стан справ уданій галузі. p>
2 Основна частина p>
2.1 Спадкування основних принципів організації p>
В основі функціональної організації ЕОМ усіх поколінь лежить загальнийпринцип програмного управління (у п'ятдесяті роки теоретичнопропонується принцип мікропрограмного управління, практична реалізаціяякого припадає на наступне десятиріччя; зазвичай цей фундаментальнийпринцип організації підсистеми управління ЕОМ пов'язують з роботами Уїлкса
(Wilkes MV), виконаними в 1951 році) та двійкового поданняінформації. Реалізація програмного управління досягається різнимиструктурними схемами, що відрізняються функціональними властивостями іпродуктивністю. Ці принципи, розроблені дуже давно, ще допояви, якщо так можна висловитися, першого достатньо повноціннихкомп'ютерів, визначили весь наступний вигляд комп'ютерних систем.
Дотримання цих принципів дозволяє створити універсальні і по можливостібільш прості апаратні (як втім і програмні) засоби забезпеченняобчислювальних машин. p>
2.2 Речовий-енергетична і інформаційна цілісність p>
Цілісність КС, як і будь-яких технічних систем, обумовлена залежністющо протікають в них речових, енергетичних та інформаційних процесівперетворення (обробки), зберігання, обміну (передачі) і управління. Уреальних технічних системах процеси перетворення, зберігання та обмінуречовини, енергії та інформації взаємопов'язані. Управління цими процесамиздійснюється інформаційними потоками, матеріалізуемимі речовими іенергетичними носіями. p>
Дана закономірність вдало ілюструється, зокрема, єдністю івзаємозв'язком енергетичних та інформаційних процесів в елементах вакуумно -лампової, напівпровідникової і інтегральної технологій, що здійснюютьобробку інформації в аналогової або цифровій формі. При видачі інформаціїі генерації управляючих впливів формуються відповідніінформаційні послідовності з метою подальшого перетворення венергетичні та речові впливу на об'єкт управління звідображенням інформації про хід процесу (перетворення форми представленняінформації). p>
У процесі обробки інформації при енергетичному впливіздійснюється перемикання логічних запам'ятовуючих елементів процесора іпам'яті. Якщо, у свою чергу, розглядати внутрішню структуру логічнихта запам'ятовуючих елементів, то неважко помітити, що різнимінформаційним змін елементів відповідають певні зміни вструктурі речовини, з якого зроблені ці елементи. У напівпровідниковихелементах, наприклад, здійснюється зміна провідності pn-переходу,непоганими прикладами можуть також послужити різноманітні носіїінформації: у магнітних наявності двійкового нуля/одиниці відповідаєпевний стан деякої області магнітного речовини, в оптичнихпри записі даних відбувається зміна оптичних властивостей поверхнідиска. Те саме можна сказати і про передачу інформації - в застосовуванихінтерфейсах вона здійснюється за допомогою поширення електромагнітнихколивань, тобто енергії. p>
2.3 Підвищення функціональної і структурної цілісності КС p>
Ця закономірність виражається у функціональній і структурноїінтеграції окремих підсистем і скороченні кількості проміжних рівнів івидів перетворення речовини, енергії та інформації в процесіфункціонування КС. p>
Функціональна цілісність розглядається в її ставлення до зовнішньогооточенню (середовищу) та зумовлюється єдністю і взаємозв'язком функційсистеми та її підсистем, а структурна цілісність системи розглядається вщодо її складу, фіксованого сукупності елементів і зв'язків міжними. У процесі еволюції КС підвищення її цілісності може виражатися вте, що сама система має можливість перейти у підсистему більшскладної системи. Чудовою ілюстрацією цього положення служитьмікропроцесор, повторив структуру машин попередніх поколінь іщо розглядається в 70-х рр.. на рівні системи, надалі що перетворився наелемент потужних суперкомп'ютерів. p>
З більш близьких нам прикладів можна відзначити, скажімо, дисковіконтролери і периферійні контролери вводу-виводу, які довгий часбули окремими пристроями, а тепер вбудовуються прямо в чіпсет, тобтоє частиною системної плати. Згадаймо також процесорний L2 кеш --зараз він складає з ядром CPU єдине ціле, хоча нещодавно виконувавсяокремим блоком, а кілька років тому взагалі встановлювався в спеціальнийслот. p>
2.4 Спадкування основних функцій, що розвиваються систем p>
У процесі розвитку систем певного класу зберігаєтьсясукупність їх основних (базових) функцій. Стосовно до комп'ютернихсистем можна стверджувати: кожне нове комп'ютерне покоління зберігає
(відтворює) сукупність основних функцій, реалізованих комп'ютерамипопереднього покоління. Які це функції? PMTC - Processing
(обробка), Memory (зберігання), Transfer (передача), Control
(управління). Все це зберігається протягом усіх поколінь комп'ютернихсистем. Найбільш інтенсивним змінам піддаються сервісні функції. Цізміни спрямовані на збільшення продуктивності та вдосконаленняінтерфейсу користувача з системою. p>
Дійсно, ні один з існуючих типів КС не виконує будь -або функцій, крім вищевказаних. Єдині зміни, яківідбуваються з появою нової КС - це все краще виконання цих функцій:новий РС все швидше робить обробку даних, отриманих з пристроїввведення, новий сервер має все більш ємну дискову систему, більший об'ємпам'яті і продуктивний CPU, новий комунікаційний стандарт забезпечуєвелику пропускну здатність і надійність. p>
2.5 Адекватність функціонально-структурної організації призначенням системи p>
Ефективними та життєздатними є системи, структура якихмаксимально відповідає реальним функцій. Два паралельно йдутьеволюційних процесу - еволюція функцій і еволюція технологій --стимулюють спрямоване вдосконалення функціонально-структурноїорганізації КС. Відомо наступне твердження: «В ідеальному випадку кожномуреалізується алгоритму відповідає певна структура системи
(пристрої) ». Наприклад, архітектура ігрового комп'ютера повинна відрізнятисявід архітектури сервера: якщо в першому випадку береться не дуже дорогий, алеоптимізований під певний набір обчислень процесор, оптимальнимчином синхронізовані з ним пам'ять, графічний контролер іпристрої введення, причому все це, швидше за все, зв'язується однієї -єдиною загальною шиною, то в другому, очевидно, буде потрібнобагатопроцесорна паралельна обробка, орієнтована набагатозадачність, більш широкий набір шин передачі даних. Однак очевидно,що нескінченну безліч алгоритмів практично не може бути відображенена відповідне безліч реальних структур. p>
Але одні й ті ж функції можуть бути відтворені універсальними іспеціалізованими засобами. Таким чином, при формуванні структури
КС певного функціонального призначення необхідно дозволятипротиріччя між «універсальністю» і «спеціалізацією» на всіх рівняхорганізації системи. Застосування універсальних елементів дозволяє створювати
КС з мінімальною структурою (тобто з мінімальним числом елементів),реалізують задану сукупність функцій (продовжуючи порівняння, на серверітеж, в принципі, при бажанні можна пограти в Unreal, але навряд чи це будедоцільно, тому що тих же цілей можна буде добитися набагато більшепростими засобами). p>
2.6 Взаємозв'язок показників якості комп'ютерних систем p>
Основні показники якості КС - характеристики продуктивності,енергетичні характеристики, характеристики надійності та ефективностісистем, економічні показники - взаємопов'язані та взаємозалежні.
Поліпшення однієї групи п?? казателей якості, наприклад збільшенняпродуктивності, веде до погіршення інших - ускладнення структури,збільшення вартості, зниження надійності і т. д. p>
Наведемо приклади взаємозв'язку і взаємозалежності показників. Наприкінці
40-х років Г. Грош сформулював емпіричний закон, згідно з якимпропорційність КС пропорційна квадрату вартості. Отже,для того щоб виконати деяку обчислювальну роботу в два разидешевше, її треба виконати в чотири рази швидше (К. Е. Найтекспериментально підтвердив справедливість цього закону для перших трьохпоколінь комп'ютерів). Інший приклад взаємозалежності загальноїпродуктивності векторної супер-ЕОМ від двох режимів її роботи. Відомо,що програми, які можуть бути векторізовани компілятором, виконуютьсяв векторному режимі з високою швидкістю, а програми, що не містятьвекторного паралелізму (або які компілятор не виявляє),виконуються з низькою швидкістю в скалярному режимі. У 1967 р. Дж. Амдалвивів закон, згідно з яким в такій системі низькошвидкісний режимдомінує в загальній продуктивності. p>
І наостанок ще одна більш близький і сучасний нам приклад. Чи несекрет, що процесори Intel Pentium-4 першого покоління (під Socket-423)мають високе енергоспоживання, велику тепловіддачу і досить-такизначні розміри. Нещодавно в мережі навіть ходили жарти щодо того, щоякщо так піде і далі, то в недалекому майбутньому комп'ютери в обов'язковомупорядку будуть поставлятися з портативної атомною електростанцією тарадіатором водяного охолодження в комплекті, а материнська плата будезварюватися зі сталевого прокату (в тому сенсі, що інакше вона розсиплетьсявід тяжкості комплектуючих). Звичайно, не все так погано, але певний резонв цих зауваженнях дійсно присутній. Тому Intel незабаром перевелапроцесор на більш тонкий техпроцес, в результаті чого вдалося зробити йогодуже маленьким (набагато менше, ніж CPU попередніх поколінь),економічним в плані споживання енергії і виділяє мало тепла. Але зіншого боку, приблизно до 10% підвищилася вартість виробу (і ценезважаючи на те, що площа чіпа, безпосередньо впливає на вартість,зменшилася). І в суто технологічному плані зміни не далися марно:новий процесор вийшов більш вимогливим до стійкості параметрівхарчування, так що довелося оснастити його новим (Socket-478) інтерфейсом, дедодаткові контакти забезпечують потрібну стабільність напруги,що подається на процесор. p>
Або, ще, порівняємо архітектури все тих же CPU від AMD і від Intel. Продругий ми щойно згадували, тому розглянемо продукцію перше.
Відомо, що цю саму продукцію (CPU Athlon різних модифікацій)відрізняє дуже невелика в порівнянні з Pentium вартість при приблизнорівній продуктивності. Чим цього вдалося домогтися? Відповідь: застосуваннямменш високих (і тому більш дешевих), ніж в Intel, технологійвиготовлення чіпів і удосконаленням внутрішньої архітектури процесора:витончені алгоритми кешування, оптимізований конвеєр та ін.
Приблизно те саме можна сказати і про DDR SDRAM. DDR (Double Data Rate) SDRAM побагатьма параметрами і способів виготовлення мало чим відрізняється від звичайної
SDRAM: та ж синхронізація шини пам'яті із системною шиною, практично те жвиробниче обладнання, енергоспоживання, майже не відрізняється від
SDRAM, площа чіпа більше лише на кілька відсотків. Зміниполягають тільки в застосуванні популярної останнім часом в компонентах
PC технології передачі даних одночасно по двох фронтах сигналу, колиза один такт передаються відразу два пакети даних. У випадку з використовуваної 64 --бітної шиною це дає 16-байтним за такт. Або, у випадку зі 133 мегагерц,вже не 1064, а 2128 Mb/s. Це дало змогу відразу без значних матеріальнихі тимчасових витрат створити нову швидкодіючу пам'ять, причому заціною, мало відрізняється від звичайної SDRAM (до речі, DDR SDRAM ще інодііменують SDRAM-II). Тобто ми бачимо, що нова пам'ять при найближчомурозгляді є вдосконалена стара. В результаті вартістьготової системи процесор + пам'ять + системна плата від AMD нижче аналогічної від
Intel рази мало не в два, але, очевидно, її структурна складністьістотно вище. p>
2.7 Відносне і тимчасовий дозвіл протиріч у КС p>
Суперечності, що виникають у КС у процесі їх розвитку, вирішуютьсятимчасово на певних етапах існування систем конкретного класу і вНадалі проявляються у трансформованому вигляді на новому якісномурівні розвитку. На різних життєвих циклах КС розробникамприходиться вирішувати «вічні» суперечності між функціональнимиможливостями і складністю технічної частини системи, між обсягомзбереженої інформації та швидкодією пристроїв пам'яті. p>
У середині 60-х років у зв'язку з появою перших міні-комп'ютеріввиникла проблема довжини слова. Відомо: чим більше довжина слова, тимбільше число команд має бути у машини [процесора - тут і далі прим.мої], тим ефективніше реалізується її проблемна орієнтація; чим більшедовжина слова, тим вище точність обробки даних. Однак вартість машинизростає пропорційно довжині слова. Ці суперечливі фактори служатькласичним прикладом компромісу при проектуванні, коли приходитьсяабо поступитися робочими характеристиками, або відмовитися від економії. p>
До речі, в даний час дуже типовим прикладом цілої сукупностіподібного роду компромісів є персональні комп'ютери: у нихвикористовуються куди більш дешеві, але й більш повільні, ніж у великихсерверах і суперкомп'ютерах, елементи. А ось приклад тимчасовогосуперечності. Починаючи десь із 486-х процесорів намітився постійнозростаючий розрив у швидкості CPU і RAM. Нинішній рік став роком широкогоосвоєння чергових нових типів локальної оперативної пам'яті - RDRAM (Rambus
DRAM) і вищезгаданої DDR SDRAM (на противагу SDRAM, Rambus використовуєвузьку - 16 біт - шину і величезну в порівнянні з нею частоту - 400 MHz, що,враховуючи також застосовується технологію DDR дає аж 800 MHz). Причина в їхпояві очевидна: при застосуванні старої SDRAM процесор більшу частинучасу буде простоювати через неотримання даних (падінняпродуктивності в середньому 40% -50% при використанні CPU з частотою 1.5-
2.0 GHz). Суперечність дозволити вдалося, але також ясно, що пройде щенебагато часу, і доведеться знову говорити про необхідність підвищенняшвидкодії підсистеми пам'яті. p>
Отже, процес розвитку комп'ютерних систем - це дозвілсуперечностей, з урахуванням спектру проблем та переліку протиріч, що підлягаютьдозволу. p>
2.8 Апаратні та програмні рішення p>
Як відомо, багато завдання можна вирішити двома принципово різнимишляхами - апаратним і програмним. (Природно, в кінцевому рахунку всеобчислення реалізуються програмно (причому, що цікаво, з іншої точкизору можна сказати, що повністю апаратно, тому це не суть важливо),але так званий «програмний» метод базується на використанні ресурсівцентрального процесора і основної пам'яті КС, в той час як «апаратний»припускає наявність іншого спеціалізованого елементу (ів)).
Перевага перших полягає, як правило, в хорошому швидкодії інезалежності від потужності основних елементів комп'ютера, однак віннедостатньо гнучка і досить дорогий, а програмні рішення, навпаки,недорогі, універсальні і легко модернізуються, але вимагають наявності потужногокомп'ютера. p>
Взагалі, дивлячись на історію розвитку КС, можна відзначити цікавий факт:з вдосконаленням технологій багато апаратні рішення замінюються на їхпрограмні емулятори. Прикладів можна навести досить багато. Наприклад, вперша ЕОМ апаратно реалізувався алгоритмічну мову програмування,незабаром ця функція стала програмною. Або звернемося до так званої
«Віконної» технології. Першим комерційним «віконних» продуктом був Xerox
8010 (в 1981 році сумно відомий під ім'ям Star). Потім з'явилися
Apple LISA (1983 рік) і Macintosh (1984 рік). Слідом за цим відбуласяпринципова зміна. Наступним продуктом, які реалізують «віконну»технологію, став Topview фірми IBM (1984), за ним пішли Windows від
Microsoft (1985) і пізніше - X Windows System (1987) для UNIX. Ці продуктивже представляли програмні реалізації системи, які забезпечувалидоступність «віконної» технології на звичайних машинах, не обладнанихспеціальною апаратурою. Список прикладів можна продовжити (скажімо,аналогічним шляхом розвивалися текстові редактори). p>
З більш сучасного ж можна відзначити мультимедійні технології.
Спочатку візьмемо ті ж звукові плати. Ще відносно недавно вони булитотально апаратними, а сьогодні будь-яка сучасна плата обов'язково так чиінакше використовує ресурси системи (наприклад, WT-таблиці для синтезу MIDI -музики). Крім здешевлення кінцевої системи, це також дозволило отриматибільшу гнучкість у функціонуванні. Кілька років тому з'явилася і зараззнаходиться на досить непоганому рівні чисто програмна реалізація звуку
(AC'97 кодек), який дозволяє при дуже невеликих витратах отриматидосить якісний звук. Також не можна не згадати про різного роду
MP3/MPEG1/MPEG2 та ін. декодери, років 6-8 тому були необхіднимипристроями «істинного» мультимедіа-РС (беру слово в лапки тому, щопоняття абстрактно і дуже швидко змінює свою сутність). Зараз же, колипотужності CPU цілком вистачає для декомпресії MP-потоків, плати MPEG2 -декодера хоча ще й можна знайти у продажу, але не часто, а про MPEG1-платах, атим більше апаратних MP3-плейерах багато хто навіть взагалі не чули, і звучитьце зараз щонайменше смішно. Або ось ще: програмні модеми, якіостаннім часом з-за своєї дешевизни отримали повсюднепоширення. Або TV-тюнери. Або програмні системи відеомонтажу. Або ...
Загалом, в процесі розвитку (тобто підвищення потужності) комп'ютерівспостерігається безліч прикладів витіснення апаратних реалізаційпрограмними. Однак, добре це чи погано, точніше, в якій мірі добре?
Якщо загалом, то це дивлячись для чого. Наприклад, використовувати зараз в РСвищезгадані MPEG-декодери (нехай і з самим неперевершеним якістюкартинки) і справді абсурдно, тому що навіть самий кволий з продаванихв даний час процесорів чудово впоратися з необхіднимиобчисленнями самостійно, а от та ж система відеомонтажу впрофесійній студії навряд чи буде програмної - там вартість малоне 128-й критерій, на перший план виступають якість і надійність. Іпрограмні рішення в галузі звуку теж не є засобом на всевипадки життя, хоча в них багато очевидних переваг. І всякі «виньмодеми»
(приношу вибачення за «жаргон», але це слово разюче точно передаєсутність предмета) теж мають багато противників, і автор в їхньому числі, але всеж у магазинах їх великий вибір, а значить купують, тому що дешево. Або,наприклад, мережева сфера: є безліч програм, що реалізуютьмаршрутизацію, кешування трафіку, організацію мостів та ін., які вметою економії коштів зазвичай виявляється доцільно застосовувати дляневеликих серверів. Але чи будуть вони ці програми наскільки або ефективнопрацювати на великому серверному комплексі, до якого одночасно звертаютьсятисячі користувачів? Тут вже ніякої процесорної потужності не вистачить,доведеться використовувати окремі пристрої і підсистеми. Не можна однозначновідповісти на поставлене запитання. Але в будь-якому випадку перемагає та технологія,яка одночасно є найбільш гнучкою, якісною, по можливостіуніверсальною і недорогий. Причому час, як правило, краще за будь -прогнозів визначає такі технології. p>
Ви можете заперечити: який же загальний виражений перехід від апаратногодо програмного, коли ось, скажімо, років десять тому користувачамперсоналок зовсім не був знайомий термін «графічний співпроцесор» (згадаймосумно канули в лету 3Dfx, яка подарувала нам тривимірний світ на екранахмоніторів ...), а зараз їм так чи інакше оснащуються навіть найдешевшікомп'ютери? Однак тут ми бачимо інший випадок, теж єзакономірністю - невідповідність рівня розвитку КС рівнем розвиткуфункцій, які вони виконують (як не парадоксально це звучить). Тобто ямаю на увазі, що можливості апаратного забезпечення дещо відстають відвимог, що пред'являються до них з боку програмного. А так як завданнявиконати все-таки хочеться, то проблему вирішують екстенсивно: потрібні новіможливості? так поставимо ще один (другий, третій ...) процесор, який ібуде займатися потрібним набором обчислень. Приклади апаратної реалізації,згодом замінені на програмні емулятори, як раз підтверджуютьсказане, просто згодом ми опиняємося на більш високому рівні
(повертаючись до тих же графічних прискорювачів, неважко помітити, що безних персональні комп'ютери ще довго не зможуть обійтися, тому щосучасний рівень технологій тривимірної графіки ще знаходитися взародковому стані (втім, «на мою скромну думку», я ненаполягаю), а сьогоднішній комп'ютер без 3D-графіки не комп'ютер). p>
Даний факт, можливо, не настільки очевидна, але певна тенденціяпростежується, і ми довели це на прикладах. p>
2.9 Удосконалення технологій створення КС, а також їх наступність p>
В основі розвитку КС, природно, лежить розвиток технологій (першвсього стосуються апаратної частини), на яких ця самі КС будуються. Тутможна виділити кілька основних напрямів, які простежувалися дотеперішнього часу і, очевидно, будуть простежуватися і в доступному для огляду майбутньому.
По-перше, це підвищення ступеня інтеграції елементарних елементів (як то:транзистори в чіпах, осередки в магнітних та оптичних носіях інформації тат.д.), і, внаслідок, дедалі більша продуктивність при все меншихрозмірах. По-друге, це збільшення пропускної спроможності різноманітнихінформаційних каналів, які застосовуються в окремих комп'ютерах і системах тієючи іншої складності. Дані факти, звичайно, очевидні, але для повноти картиниїх все-таки варто позначити. p>
Більш цікавою закономірністю є так званаспадкоємність технологій. Вона полягає в поступове виродження даноїреалізації певної технології внаслідок її морального зносу інаступною появою її ж (технології) знову на більш якісновисокому рівні. Тобто, кажучи простіше, має місце так зване розвитокпо спіралі - ми ходимо по колу, але з кожним обертом опиняючись все вище.
Безумовно, не абсолютно всі регулюється цим законом (наприклад,відгомони перфокарт навряд чи коли-небудь ще з'являться), але в IT-індустрії, таі взагалі в техніці існує безліч подібних прикладів. Візьмемо,наприклад, магнітні стрічки. У 80-х роках минулого століття комп'ютерна пресащосили сурмить про швидкої їх смерть, тому що їх начебто повинні замінитидискові накопичувачі як більш мініатюрні і зручні у використанні (тоді,до речі, і з'явилися оптичні та магнітооптичні носії).
Дійсно, зараз стримери в більшості комп'ютерів знайти не так-толегко, але у великих організацій (перш за все державних і, вЗокрема, військових) іншого вибору все одно (пока..?) немає. Якщо врахувати,що обсяги інформації стрімко зростають (в сотні разів за останнійдесятиріччя), то неважко зрозуміти, що існуючі дискові накопичувачізалишають бажати кращого в плані ємності, надійності і не в останнючергу вартості в розрахунку на мегабайт. А стрічки як і раніше єнайбільш ємними (ємність стрічок вже іноді обчислюється терабайт) і дужедешевими носіями, які, переживши деякий короткочасний застій
(втім, а чи був він взагалі?), знову живуть і живуть. Але вже в іншійобласті і в дещо іншому вигляді. Або розглянемо технологію оптичнихдисків. Першим подібним відомим продуктом, які живуть (і поки що непогано ...)і в наші дні, є CD. Який потім трансформувався в DVD. Але вжезараз ємність DVD є гранично-недостатньою, причому начебтоподальший розвиток DVD видається непростим. Чи означає це, щооптична технологія вичерпала себе? Зовсім ні. Компанія Constellation 3D,наприклад, намагаючись знайти відповідне рішення, розробила діючізразки багатошарових (не один десяток; для порівняння: в CD один, у два DVDшару, і подальше збільшення їх кількості традиційними методами пов'язаноз проблемами загасання променя при проходженні його через верхні шари) FMD -носіїв, заснованих на здатності деяких матеріалів флуоресціроватьпід впливом світла певної довжини хвилі. p>
А ось більш близьке до розумінняприклад. Відомо, що з моментупояви перших РС процесор з материнською платою стикався більшоїстороною (встановлювався в Socket'овий роз'єм). Десь у 1996 році Intelвирішила оснастити черговий процесор новим інтерфейсом, при якому CPU бвставлявся в слот подібно до, скажімо, пам'яті. Однак дане рішення закілька років експлуатації виявило ряд недоліків, і одним з головнихбула підвищена вартість. Тому, починаючи з 2000-го р., компанія звернулавиробництво слотові процесорів, повернувшись до вже обкатаним варіанту.
Хоча спочатку здавалося, що socket - вчорашній день. P>
Ще один цікавий момент полягає у швидкості розвитку технологій.
Закономірність в цій області ще дуже давно, в 60-х роках, сформулював
Г. Мур (Moore): продуктивність елементів КС подвоюється кожні півторароку. Цей закон актуальний і понині, хоча варто було б вже говорити про річнийперіоді. Наприклад, виробники графічних чіпів взяли за правилохорошого тону випускати новий GPU кожні півроку, а щільність запису на HDDc кінця минулого року збільшилася з 10 до вже майже 20 GB на бік. Єдумка, що навіть 9 місяців, але, по-моєму, це вже занадто. Тобто ми маємосправа не тільки з прогресивним розвитком, але і з його прискоренням. Причомуприскорення видно також і у впровадженні нових технологій в життя, а не тількив їх вдосконалення (порівняйте час розробки плазмових панелей зісторією LCD-дисплеїв, які були відомі ще за часів холодноївійни). p>
2.10 Падіння вартості на комп'ютери p>
Все по того ж горезвісного закону Мура подвоєння потужностей відбуваєтьсяне просто так, а з збереженням вартості. Тобто зараз ми спостерігаємо якмінімум дворазове зниження вартості на конкретний зразок кожні рік -півтора. Також має місце і загальне (якісне) зниження цін накомп'ютерні комплектуючі, хоча в даному питанні, правда, ми в основномумаємо увазі персональні комп'ютери. Наприклад, сьогодні цілком сучаснийпроцесор можна купити за 100 доларів, а ціни на память впали просто донепристойної позначки - можна вибирати, чи користуватися в цьому місяціінтернетом або додати своїй системі сотню-другу-третю (залежно відпровайдера та тарифного плану) мільйонів байт RAM. Те ж стосуєтьсяпрактично всіх типів комплектуючих. Модні зараз 80-гігабайтовиевінчестери коштують не більше 200 доларів, у той час як не багатьом меншсолідно було б обзавестися 40-гігабайтовим менш ніж за 90. Якщо поділити
40 на 4, то хіба можна було купити дві, нехай навіть півтора роки тому 10 --гігабайтовий HDD за такі гроші? Взагалі ж в даний час 500 USDвистачить на так званий «домашній» комп'ютер відносно непоганийкомплектації. Два роки тому в принципі теж би вистачило, але вже або наб/у, або на зібраний із застарілих комплектуючих незрозумілогопоходження дуже сумнівної якості. А році скажімо в 95-м? Та навітьна процесор з пам'яттю не вистачило б. p>
Можливість зниження цін стала можлива завдяки підвищеннюпродуктивності праці в даній сфері виробництва, а також завдякидосвіду застосування