|
Глава 1. Исторические предпосылки развития высокоскоростных сетей передачи данныхАнализируя исторический опыт создания и развития сетевых технологий высокоскоростной передачи информации, следует отметить, что главным фактором, который обусловил появление этих технологий, является создание и развитие средств вычислительной техники. В свою очередь, стимулом к созданию средств вычислительной техники (электронных компьютеров) стала вторая мировая война. Для расшифровки закодированных сообщений немецких агентов требовалось огромное количество вычислений, и их нужно было произвести сразу после радиоперехвата. Поэтому, британское правительство основало секретную лабораторию для создания электронного компьютера под названием COLOSSUS. В создании этой машины принимал участие знаменитый британский математик Алан Тьюринг, и это был первый в мире электронный цифровой компьютер. Вторая мировая война повлияла на развитие компьютерной техники и в США. Армии нужны были таблицы стрельбы, которые использовались при нацеливании тяжелой артиллерии. В 1943 году Джон Моушли и его студент Дж. Преспер Экерт начали конструировать электронный компьютер, который они назвали ENIAC (Electronic Numerical Integrator and Computer — электронный цифровой интегратор и калькулятор). Он состоял из 18 000 электровакуумных ламп и 1500 реле. ENIAC весил 30 тонн и потреблял 140 киловатт электроэнергии. У машины было 20 регистров, каждый из которых мог содержать 10-разрядное десятичное число. После войны Моушли и Экерту позволили организовать школу, где они рассказывали о своей работе коллегам-ученым. Вскоре и другие исследователи взялись за конструирование электронных вычислительных машин. Первым рабочим компьютером был EDS АС (1949 год). Эту машину сконструировал Морис Уилкс в Кембриджском университете. Далее появился JOHNIAC — в корпорации Rand, ILLIAC — в Университете Иллинойса, MANIAC — в лаборатории Лос-Аламоса и WEIZAC — в Институте Вайцмана в Израиле. Экерт и Моушли вскоре начали работу над машиной EDVAC (Electronic Discrete Variable Computer – электронная дискретная параметрическая вычислительная машина), затем последовала разработка UNIVAC (первая электронная серийная вычислительная машина). В 1945 году к их работе был привлечен Джон фон Нейман, создавший принципы работы современной вычислительной техники. Фон Нейман осознал, что создание компьютеров с большим количеством переключателей и кабелей требует длительного времени и очень утомительно. Он пришел к мысли, что программа должна быть представлена в памяти компьютера в цифровой форме вместе с данными. Он также отметил, что десятичная арифметика, используемая в машине ENIAC, где каждый разряд представлялся 10 электронными лампами (1 лампа включена, 9 – выключены), должна быть заменена бинарной арифметикой. Машина фон Неймана состояла из пяти основных частей: памяти - RAM, процессора - CPU, вторичной памяти – магнитные барабаны, ленты, магнитные диски, устройства ввода – чтение с перфокарт, устройства вывода информации – принтер. Именно необходимость передавать данные между частями такой ЭВМ послужила стимулом развития высокоскоростной передачи данных и организации компьютерных сетей. Первоначально для передачи данных между компьютерами использовались перфоленты и перфокарты, затем магнитные ленты и съемные магнитные диски. В дальнейшем появилось специальное математическое обеспечение (софт) – операционные системы, позволяющие многим пользователям с различных терминалов пользоваться одним процессором, одним принтером. При этом терминалы большой машины (мейнфрейм) могли быть удалены от нее на весьма ограниченное расстояние (до 300-800м). С развитием операционных систем появилась возможность присоединять терминалы к мейнфреймам при помощи телефонных сетей общего пользования с увеличением и числа терминалов и соответствующих расстояний. При этом никаких общих стандартов не существовало. Каждый производитель больших компьютеров разрабатывал свои правила (протоколы) присоединения и, таким образом, выбор производителя и технологии передачи данных для пользователя становился пожизненным. Появление интегральных микросхем с низкой стоимостью привело к тому, что компьютеры стали меньше по размерам, доступнее по цене, мощнее и специализированнее. Компании уже могли позволить себе иметь несколько компьютеров, предназначенных для различных подразделений и задач и выпущенных различными производителями. В связи с этим появилась новая задача: соединение групп компьютеров между собой (Interconnection). Самыми первыми компаниями, которые эти «островки» соединили, были IBM и DEC. Протоколом системы передачи данных у DEC был DECNET, который сегодня уже не применяется, а у IBM – SNA (System Network Architecture – первая сетевая архитектура передачи данных для компьютеров серии IBM 360). Однако компьютеры одного производителя все еще ограничивались соединением с себе подобными. При присоединении компьютеров другого производителя использовалась программная эмуляция для имитации работы нужной системы. В 60-х годах прошлого века правительство США поставило задачу обеспечения передачи информации между компьютерами различных организаций и осуществило финансирование разработки стандартов и протоколов обмена информацией. За реализацию поставленной задачи взялось ARPA – агентство по исследованиям министерства обороны США. В результате удалось разработать и внедрить компьютерную сеть ARPANET, с помощью которой были соединены федеральные организации США. В этой сети были внедрены протоколы TCP/IP и технология связи сегментов сетей министерства обороны США (DoD) Internet – Интернет. Появившиеся в 80-х годах персональные компьютеры стали объединять в локальные сети (LAN – Local Area Network). Постепенно появляется все больше производителей оборудования и соответственно математического обеспечения (МО), проводятся активные разработки в области взаимодействия оборудования различных производителей. В настоящее время сети, включающие оборудование и МО различных производителей, называют гетерогенными сетями (разнородными). Необходимость “понимать” друг друга приводит к необходимости создания не корпоративных правил передачи данных (например, SNA), а общих для всех. Появляются организации, создающие стандарты передачи данных, определяются правила, по которым могут работать частные клиенты, телекоммуникационные компании, правила объединения гетерогенных сетей. К таким международным стандартизирующим организациям относятся, например:
Параллельно не прекращают разработки и частные компании (например, компания Xerox разработала технологию Ethernet, а компания СISCO – технологию 1000Base-LH и MPLS). C удешевлением технологий организации и компании получили возможности объединять свои компьютерные островки, находящиеся на различном удалении (в разных городах и даже континентах), в свою частную - корпоративную сеть. Корпоративная сеть может строиться на основе международных стандартов (ITU-Т) или стандартов одного производителя (IBM SNA). При дальнейшем развитии высокоскоростной передачи данных стало возможным объединять в одну сеть различные организации и подключать к ней не только членов какой-то одной компании, а любое лицо, выполняющее определенные правила доступа. Такие сети называются глобальными. Заметим, что корпоративная сеть – это сеть, которая не является открытой для любого пользователя, глобальная сеть, напротив, открыта для любого пользователя. Выводы В настоящий момент практически все сети являются гетерогенными. Информация рождается на базе корпоративных сетей. Основные объемы информации циркулируют там же. Отсюда необходимость их изучения и умения реализовывать такие сети. Однако доступ к информации все больше открывается различным пользователям, свободным от конкретной корпорации, и отсюда необходимость уметь реализовывать глобальные сети.
Дополнительная информация
Контрольные вопросы
|