“Факт, что вы можете предсказать определённые вещи, имеет очень маленькое значение, если не считать, что мы можем что-то получить от предсказания”.
Бывает так, что какие-нибудь волхвы либо астрономы с нетерпением ждут появление новой звезды, а её всё нет и нет. И вдруг — вот она… Сразу же идут всевозможные предсказания от прогнозов на урожай до появления мессии. Впрочем, то, что этого не было видно раньше, отнюдь не означает, что его вообще не было. Просто возникшие однажды и постоянно усиливающиеся аналогии развития современных ИКТ-технологий с повседневной реальностью способны в один прекрасный момент поменять даже целое миропонимание.
В протекающем ныне бурном процессе цифровизации сетей относительно недавно появился термин SDE (Software-Defined Everything). Ещё одно название — SDx, что можно перевести как “программно-определяемое всё”. И это обозначает сегодня гораздо больше, чем это могло показаться ещё вчера. Дело не только в том, что всего лишь тремя словами он описывает концепцию будущего (полностью цифровизированного) телекома, но и в том, что он обозначает среду для виртуализации всего и вся. Причём среду, текущее развитие которой имеет взрывной характер. Можно сформулировать это и по-другому: всевозможная виртуализация всего и вся превращается в “программноопределяемое всё”. На страницах журнала уже рассказывалось кое-что о программно-определяемых сетях (Software- Defined Networks), системах хранения данных SDS (Software- Defined Storage), а также центрах обработки данных или ЦОДах (SDDC — Software-Defined Data Centre). Одно из их главных отличий программно-определяемых решений — отсутствие жёсткой зависимости от конкретного изготовителя или поставщика, что, к примеру, всегда являлось проблемой для управления в сетях связи или в хранилищах данных, построенных на оборудовании разных поставщиков.
В конце концов эта проблема всем надоела, потому что стала выступать откровенным тормозом в процессе развития гибкости и функциональности и сетей связи, и хранилищ данных в условиях стремительного роста трафика, и объёмов данных. Кстати, “облака” с уже появившимися услугами в лице “ПО как сервис” (SaaS — Software-as-a-Service), “инфраструктура как сервис” (IaaS — Infrastructure-as-a-service) и “платформа как сервис” (PaaS — Platform-as-a-Service) являются естественным предшественником и, разумеется, необходимым условием для появления SDE.
Приведённый выше в лице SDE всеобъемлющий термин, описывающий переход от физических аппаратных элементов управления в ЦОДах к специализированному ПО, позволяет производить мониторинг и управление всеми ИКТ-составляющими сетей связи (для начала корпоративных). Более того, в SDE каждый элемент инфраструктуры ЦОДа является виртуализированным (т. е. создаётся с помощью специализированного ПО) и поставляется как услуга для пользователей. Таким образом, речь идёт не просто о каких-то технических процессах, служащих для изменения конфигурации сетей или СХД, а о том, что идёт логичный процесс смещения фокуса с “железа” на ПО (здесь можно использовать такую аналогию, как “мускулы” и “мозги”). При этом ПО контролирует и регулирует политику и параметры сетей, ЦОДов и хранилищ данных, что в значительной степени сводит на нет необходимость постоянного мониторинга и ручного изменения конфигурации данных объектов в зависимости от ситуации. Освободившись от оков физической инфраструктуры, контролирующее ПО развивается с постоянно возрастающей скоростью, в то время как основные аппаратные средства остаются или становятся стандартизованными. И это позволяет снижать цены и искоренять диктат поставщиков оборудования.
Специалисты считают, что взрывной характер распространения SDE далеко не случаен, а исторически предопределён, поскольку является логическим следствием всей 70-летней эволюции компьютинга (вычисление, выполняемое на компьютере), начиная с работы The First Draft of a Report on the EDVAC Джона фон Неймана. В ней фон Нейман изложил один, но далеко не единственный, из подходов к распределению функций между аппаратным и программным обеспечением, который получил название “модель фон Неймана”. Изложенные там идеи удачно соответствовали техническим возможностям 50-х годов прошлого века, поэтому были беспрекословно приняты мировым сообществом и стали фундаментальной основой всего современного компьютинга. Неймановская модель создавалась исходя из очевидного на тот момент постулата: самое главное и дорогое — это аппаратное обеспечение. Именно оно даёт возможность разместить в памяти и выполнить программу.
Многие годы стоимость ПО была несоизмеримо меньше стоимости оборудования, да и сами программы рассматривались как нечто вторичное. А специальное слово для них — software появилось существенно позже, в 1958 г. (только через 10 лет после появления компьютеров). Да и сами компьютеры называли вначале универсальными вычислительными машинами (general-purpose computer). Под универсальностью тогда понималась возможность устанавливать на одном и том же “железе” совершенно разные программы. В свою очередь, появление термина Software Defined меняет само представление об универсальности, потому что теперь есть возможность выполнять любые программы на любом “железе”. Собственно, всё развитие вычислительной техники происходило как движение от “железа” к “софту” через мейнфреймы (от англ. mainframe — большой универсальный высокопроизводительный отказоустойчивый сервер), мини-компьютеры, микропроцессоры, ПК, сеть Интернет и далее к SDS, смартфонам, вплоть до “облаков” и виртуальных устройств. Это объясняется тем, что в период с 1950 г. по 1980 г. развитие рынка определялось исключительно производителями аппаратного обеспечения, и лишь в 80-е ПО становится самостоятельной областью индустрии. А далее постепенно инвестиции в ПО становятся сравнимыми с инвестициями в аппаратное обеспечение и даже больше, пока дело не дошло до виртуализации.
Сегодня рынок виртуализации условно делится на две основные составляющие: виртуализация рабочих мест (VDI — Virtual Desktop Infrastructure) и серверная виртуализация, в которую входят гипервизоры для создания виртуальных машин, различные виртуали- зационные технологии, а также средства администрирования и управления виртуальными средами. Но уже сейчас заказчики пришли к осознанию того, что виртуализация — это нечто большее, нежели использование виртуальной машины для размещения нескольких систем. Они начинают проявлять интерес к созданию виртуальных сред с виртуальным доступом и управлению ими, а также к виртуализации обработки, хранения данных и сетей. Дело идёт к выделению ресурсов по запросу и к виртуализации сетевых функций (NFV — Network Function Virtualization), когда в “облаке” можно реализовать и соединить виртуальные сетевые элементы, которые будут работать точно так, как и реальная сеть связи. Получается, что будущая модель телекома сводится к соединённым высокопроизводительными линиями связи “облакам”, где, в свою очередь, реализуются любые виртуальные “фантазии” сетевых операторов и сервис-провайдеров. С другой стороны, в рамках концепции Software Defined всё сетевое “железо” (как в ЦОДах, так и вне их) постепенно превращается в унифицированные компьютеры, которые могут соединяться друг с другом по стандартным протоколам, а установленное на них ПО может дистанционно превращать их в самые разные виртуальные сетевые элементы (или даже в несколько виртуальных элементов одновременно на одном “железе”) или серверы. Что же касается ПО, то оно становится более открытым сторонним пользователям, что позволяет привлекать к его совершенствованию или кастомизации (подстройке под конкретного клиента) отнюдь не только “признанных” поставщиков ПО и оборудования.
Как уже рассказывалось в журнале, в последнее время набирает обороты ИТ-платформа третьего поколения. Первое базировалось на мейнфреймах, второе — на ПК и Интернете. Третье поколение способно обеспечить работу миллионов приложений для миллиардов пользователей, а её аппаратные средства — мобильные устройства. Её драйвером являются четыре тренда современности: социальные сети, “облачные” технологии, Big Data и мобильность как способ существования и доступа к данным. Выход на рынок компаний, соответствующих третьему поколению ИТ, таких как Google, Amazon, Alibaba, требует совершенно иных подходов к ведению бизнеса и использованию программных продуктов. Если для ИТ второго поколения характерно фокусирование на создании идеального, максимально протестированного, законченного продукта, то для работы над приложениями нового поколения активно применяют так называемый метод DevOps (development & operations). В этом случае разработчики тесно сотрудничают со специалистами по информационно-технологическому обслуживанию, что помогает заказчикам быстро создавать и оперативно обновлять ПО и сервисы. Используется также принцип гибкой разработки ПО, позволяющий постоянно управлять его функциональностью. Существует и такой подход, как continuous delivery, обеспечивающий непрерывный доступ к функциям ПО, которые могут быть ограничены, но при этом достижимы в любое время с любого устройства. При совокупном применении указанных подходов получается, что разработка ПО никогда не заканчивается, но все версии продукта, начиная с самых ранних, вполне работоспособны.
В 2015 г. практически все ведущие компании-производители уже демонстрировали возможности виртуализации сетевых функций по всему спектру телекоммуникационных решений: RAN (Radio Access Network), IMS (IP Multimedia Subsystem), EPC (Evolved Packet System) и др. Кстати, будущие сети 5G, которые выйдут на рынок в 2020 г., должны будут подстраиваться под запросы пользователя в каждый конкретный момент, выделяя оптимальные для каждой задачи ресурсы. И основной “фокус” сетей 5G — не только высокая скорость передачи данных, но и гибкость сетевой инфраструктуры. Таким образом, операторский бизнес в телекоме движется к созданию виртуального с точки зрения инфраструктуры предприятия. Кстати, в мае 2015 г. компания EMC представила первое решение с открытым исходным кодом и предложила бесплатную загрузку программно-определяемой системы хранения.
Интересно, что впервые понятие Software Defined появилось в контексте разработки программно-определяемых радиосистем в лице “программноопределяемого радио” SDR (Software- Defined Radio). К SDR принято относить радиосистемы, в которых некоторые или все функции физического уровня реализуются программными средствами и могут быть программно изменены. Это касается рабочего диапазона частот, типа модуляции, выходной мощности и др. Традиционно в радиосистемах функции физического уровня (фильтрация, модуляция/демодуляция, преобразование спектра, усиление сигналов) выполнялись аппаратными методами, и любые изменения в радиосистеме могли быть внесены только непосредственным физическим вмешательством в устройство. Это приводило к высокой стоимости изделий и ограниченности в поддержке нескольких стандартов сигналов. Последние же к началу XXI века стали множиться с пугающей быстротой. Поэтому в какой-то момент легко настраиваемые, более эффективные и дешёвые программно-определяемые радиосистемы, требующие минимум затрат средств и ресурсов, превратились в быстро развивающийся бизнес. Подобные устройства могут иметь несколько режимов работы в различных диапазонах частот и большой набор дополнительных функций за счёт смены ПО. SDR объединяют аппаратные и программные технологии, где все или некоторые из работающих функций настраиваются (изменяются) средствами ПО. Такие устройства обычно могут содержать программируемые логические интегральные схемы (FPGA), цифровые сигнальные процессоры (DSP), процессоры общего применения (GPP), программируемые системы на кристалле (SoC). Использование подобных технологий позволяет изменять и расширять функциональные возможности радиосистем без аппаратного вмешательства. Впрочем, многое из только что сказанного лишь подтверждает сказанное ещё выше.
Технология SDR используется, в частности, в современных базовых станциях мобильной связи, когда одно и то же устройство может работать во всех стандартах 2G/3G/4G (и уж точно будет использоваться в 5G) и во всех используемых этими сетями полосах радиочастот. В своём развитии SDR распространяется на следующие виды радиооборудования: адаптивное радио (способное улучшать качество передачи), когнитивное радио (самостоятельно выбирающее тактику поведения на основе мониторинга эфира и предустановленных задач) и интеллектуальное радио (когнитивное радио, которое обладает машинным обучением).
Впрочем, SDR лишь только штрих к концепции SDE, причём отнюдь не определяющий. Потому что сначала для SDR надо создать весьма продвинутую радиосистему, а уж потом упражняться на ней с помощью ПО. В свою очередь, понятие SDE получается гораздо шире, потому что позволяет предоставлять “всё как сервис” (EaaS — Everything-as- a-Service) поверх какого-то стандартного “железа”. Но разве инженерная мысль должна ограничиваться исключительно рамками информационных коммуникаций? Просто ИКТ-техно- логии открывают нам новые принципы существования окружающей нас действительности.
Кстати, уже давно перестали быть научной фантастикой виртуальные миры и путешествия и вполне созрели такие сервисы, как “виртуальный мир как услуга” (VWaaS — VirtualWorld-as-a-Service) или “виртуальное путешествие как услуга” (VTaaS — VirtualTravel-as-a-Service). По мнению некоторых авторитетных экспертов и футурологов, виртуальные миры уже в самом ближайшем будущем могут прийти на смену сегодняшним социальным сетям и, вообще, коренным образом изменить принципы человеческого взаимодействия с Интернетом и друг с другом. Если же говорить о виртуальных путешествиях, то сегодня их может совершать любой пользователь, обладающий достаточно широкополосным каналом доступа в Интернет.
Быть может, виртуального мира не существует в реальности, и отчасти это подмена мира реального. Правда, единственное, что может ограничить этот мир, — фантазия его создателя. Точнее, её отсутствие, если в роли создателя выступает человек. Зато верно одно — современные технологии виртуализации показывают нам примеры, способствующие пониманию происходящего вокруг нас. Существует, к примеру, мнение (особенно после просмотра одноимённого фильма), что весь наш мир — матрица, и мы живём в спроектированном кем-то мире, в котором, кроме нас самих и круга людей, с которыми мы общаемся, никого и ничего не существует. Очевидно, это слишком упрощённая картина мироздания с точки зрения рядового “айтишника”, но очевидно также, что в этом что-то есть. И неспроста “вначале было слово”, которое в век тотальной компьютеризации человечество понимает несколько по- другому, нежели хотя бы 100 лет назад. К тому же с помощью разработки новых технологий человечество регулярно повторяет то, что уже давно сделано до него природой. Так что всё рассмотренное выше развитие компьютерных и телекоммуникационных технологий также представляет собой упрощённую модель того, как устроен этот мир.
Процесс смещения фокуса с “железа” на ПО происходит больше в головах наших современников, тогда как в природе всё уже давно устроено по похожей схеме. Если речь идёт о эволюции человека, то в нём уже давным-давно произошло похожее смещение с “мускулов” на “мозги”. Правда, с развитием у некоторых современных нам индивидуумов интернет-зависимости существует опасность, что у них не останется ни того, ни другого, — но ведь это просто тупиковая ветвь эволюции.
Как не упомянуть здесь понятое не так давно устройство всей живой природы, когда из стандартных молекул с помощью ПО, записанного в ДНК, получается весьма широкий набор организмов. Причём недавние расшифровки геномов показали, что количество подпрограмм (генов) в ПО, формирующем человека, имеет не так уж много различий с подпрограммами в ПО, формирующем, к примеру, земляного червяка. И на современном уровне научно-технических знаний можно представить сей процесс в виде стандартной природной услуги “человек как сервис” или “земляной червяк как сервис”. Бурно развивающаяся в наше время генная инженерия уже позволяет подправить природу, создав “червяка исправленного” с заменёнными генами или “жёлтую рыбу” с генами кукурузы. А когда указанные технологии учёные поставят на поток, они тоже будут почти “как сервис”. Но и это ещё не всё.
А вдруг правы секретные физики и писатели-фантасты, утверждающие порой, что всё созданное нашим воображением и облечённое в речь обретает реальное существование в каких-то неведомых глубинах чуждых нам измерений, с которыми мы время от времени по неосторожности пересекаемся? Иначе говоря, всё когда-либо придуманное где-то существует. И получается, что книги не только не горят, но и оживают.
Впрочем, можно не забираться так далеко. Не меньше интересного окружает нас с давних пор. По мнению многих специалистов(причём не только из религиозных сфер), состояние души и тела взаимосвязано. К примеру, для этого есть масса определений в медицине, когда наше (а то и не наше) сознание влияет на наше физическое состояние, вызывая тем самым различные расстройства или, наоборот, способствует чудесному исцелению от недугов. Главным аргументом этой идеи выступают то интуиция, то ясновидение, то неясные экстрасенсорные возможности человека. Общее у них то, что не принимается и даже осуждается не только официальной наукой, но и целым рядом религиозных конфессий. В их основе лежат непонятные нам технологии, работающие поверх какой-то непознанной ещё нами среды. Все мы знаем, что наука работает с явлениями, которые можно объяснить или же увидеть экспериментально, посему интуиция или ясновидение не подпадают под эти критерии. Большинство исследователей делают вид, что если что-то нельзя измерить или доказать, то этого просто не существует — такова суть научного подхода (что, впрочем, порой не мешает им крестить детей или обращаться к разного рода целителям).
Физическое тело и душа весьма напоминают нам всё то же “железо” и установленное на нём ПО. Тело без сознания (души) более похоже на снятый костюм и весьма напоминает компьютер без операционной системы. Впрочем, есть люди, имеющие посмертный опыт, сильно отличающийся от привычной нам реальности, когда “выход из тела” показывал, что в какой-то другой реальности последнее вовсе не обязательно (вернее, оно там какое-то другое). Впрочем, современные футурологи уже занялись поиском возможности “переписи” памяти человека в целях продления “разумной” жизни после смерти физического тела. Причём, будет ли эта “запись” именно душой, обладающей реальным сознанием, — большой вопрос, поскольку душа — это не просто память всех событий. При этом физическая природа души остаётся нам непонятной.
Впрочем, большинству учёных вообще нет дела до связи материи и сознания. Материя — часть физического мира, разум — метафизического. Однако открытие квантовых явлений приводит нас к тому, что мир, в котором мы живём, — всего лишь воображение. Загадкой квантовой теории является то, что наблюдатель не может быть отделён от наблюдаемого. Если какая- то из частей исчезает, то реальность исчезает вместе с ней. Если нет наблюдателя, то нет и реальности, остаются только волны вероятностей. Иначе, нет ПО — нет и “железа”.
По мнению физика Дэвида Джозефа Бома (1917—1992 гг.), наше восприятие мира — результат широкой обработки нашего мозга на протяжении многих веков. В результате этой обработки появилось искусственное разделение между человеком и человеком и между природой и человечеством. В 1952 г. Д. Бом опубликовал две статьи с изложением основных идей того, что позднее получило название причинной интерпретации квантовой механики, открывающей возможности предположить существование более тонких уровней реальности. Эту теорию принято называть квантовой теорией с локальными скрытыми переменными. Д. Бом много времени уделял работе над голографической моделью Вселенной. Он считал, что все индивидуумы взаимосвязаны не в результате непосредственного влияния, которое они могут оказывать друг на друга, а в силу того факта, что все они подвержены влиянию общих фундаментальных законов. По Бому всё, включая сознание и материю, активно влияет на целое, а посредством целого и на все составляющие. Ну а сознание и материя — две стороны одной медали. Посему споры материалистов с идеалистами в принципе беспочвенны.
Если, не вдаваясь в подробности, представить, что эмоции — это некий мост между нашим сознанием и телом, то можно рассмотреть такой пример. Сначала было радио, которое преобразует электромагнитные волны в звук, потом появился факс, который преобразовывал их же в двухмерные изображения, а потом научились создавать голограмму, которая создаёт из электромагнитных волн 3D-изображения. За этими изобретениями последуют машины, которые позволят нам “пощупать” 3D-изображения. Для наблюдателя может быть воспроизведена воображаемая среда тесного контакта, которая будет находиться в пределах виртуальной реальности. И в случаях, когда виртуальная среда создана успешно, человек полностью погрузится в симуляцию программно-определяемой реальности. И тут возникают логичные вопросы.
Так мир, в котором мы живем, реальный или виртуальный? Все мы снабжены одним мозгом, и нам будет казаться, что мы производим одну и ту же реальность? Правда, у человека с повреждённым мозгом будет совсем другая реальность, и насколько его реальность будет менее “реальной”, чем наша?
Будет ли мир, созданный нашим сознанием из волн материи, включать внутренний мир, поделиться которым мы не в состоянии, но который не менее важен для нас? Создаём ли мы его сами? Насколько он реален и ограничен? Сможем ли мы его менять?
Может быть, существующая стена между сознанием и материей, реальным и потусторонним, построена искусственно? Какова цель нашего нахождения здесь, в этой “реальности”? И может ли сознание человечества быть изменено с течением времени?
Дать исчерпывающий ответ на эти вопросы пока не представляется возможным. Ну, разве что, кроме последнего, на что наталкивают нас аналогии с последними достижениями в информационных коммуникациях. Наверное, когда-нибудь человечеству необходимо будет уничтожить ту стену, которая отделяет его от “небес”. Хотя бы для того, чтобы не стать тупиковой ветвью эволюции.
Автор: А. ГОЛЫШКО, канд. техн. наук, г. Москва
Источник: журнал Радио №2, 2016