Бимодальная стратегия разработки софта
ДЕСЯТЬ ТЕНДЕНЦИЙ, МЕНЯЮЩИХ СОВРЕМЕННЫЕ ДАТА-ЦЕНТРЫ
Центрам обработки данных приходится соответствовать новым требованиям рынка. Не только для того, чтобы обогнать конкурентов, но и просто для того, чтобы избежать отказов оборудования и серьезных проблем уже в ближайшем будущем. О том, какие тенденции в IT влияют на организацию работы Центров обработки данных, об изменениях в хостинг-бизнесе в ближайшем будущем речь идет в опубликованном Gartner исследовании.
Переход на программно-конфигурируемую инфраструктуру
Времена, когда IT-менеджмент компаний мыслил «железными» категориями, остались в прошлом. Сколько «наших» серверов стоит в стойке на площадке провайдера, сколько их нужно будет дополнительно взять в аренду под новые задачи или проекты, сколько и каких жестких дисков необходимо – неважно. Заказчику удобнее просто выбрать из списка опций необходимые услуги, оплатив только то, что необходимо сейчас. Понадобится дополнительное пространство под данные, или дополнительный софт в связи с расширением бизнеса – заказчик поставит галочки напротив соответствующих пунктов в панели заказов. А как именно нагрузка распределяется на несколько серверов, как организовать дисковое пространство для оптимальной скорости и высокой надежности – это проблемы инженеров ЦОДа.
Непрерывность вместо дискретности резервирования данных
Если раньше план резервного копирования данных был компромиссом между надежностью и стоимостью готового решения, то теперь клиентам нужна возможность восстановления данных с любой временной точки. Более того – заказчик все меньше хочет заниматься архивированием данных для возможности их аварийного восстановления. В перспективе задача резервного копирования данных и аварийного их восстановления полностью ляжет на плечи хостинг-провайдера, причем, технология должна обеспечивать непрерывность и незаметность для клиента этих процессов.
Переход к конвергированным сетям
Серверы, несущие основную нагрузку по хранению и обработке данных, неизменно входили в классическую IT-инфраструктуру компании. При этом конфигурация этой инфраструктуры в каждой фирме была индивидуальной, что делало ее обслуживание более дорогостоящим. Будущее – за конвергированными сетями, когда в компании остаются только клиентские компьютеры и стандартное сетевое оборудование, обеспечивающее высокоскоростной доступ в интернет. Вся нагрузка по обработке и хранению информации передается в Центры обработки данных. При этом сама инфраструктура компании становится универсальной, что обеспечивает дополнительную экономию. Фактически, речь идет о ликвидации самой дорогой части IT-оборудования компаний и использовании мощностей удаленных ЦОДов.
Переход к дезагрегированным системам
Этот подход является противоположностью интегрированным системам, в которых различные компоненты сервера плотно «упаковываются» на единую плату, а то и на один кристалл. Фактически, идеи из мира свободного ПО, когда благодаря открытым стандартам каждый может создать необходимые модули, были перенесены в мир «железа». Ярким примером является проект Open Compute от Facebook: спецификации позволяют любому производителю создавать модули для серверов, что дает возможность использования недорогих энергоэффективных компонентов. Речь идет о переходе от производства вендорами серверов как готовых решений к производству отдельных компонентов серверов.
Бимодальная стратегия разработки софта
Есть несколько стратегий разработки программного обеспечения, среди которых преобладающими являются две. Первая делает акцент на надежности, вторая – на скорости создания программ. Надежный софт требует длительной тщательной работы, длительного тестирования, использования только проверенных решений. При этом быстрый подход позволяет соответствовать современным тенденциям и соответствовать меняющимся требованиям рынка. Бимодальная стратегия объединяет в себе оба подхода, при этом надежный софт применяется для реализации критически важных сервисов, а «быстрый» — для экспериментальных технологий.
Развитие интернета вещей
В 2012 году 17 млрд устройств выходили в сеть. К 2020 году таких устройств будет уже 50 млрд. Речь идет о небольших датчиках и устройствах, способных не только подключаться к интернету, но и образовывать собственные одноранговые сети, собирающих гигабайты данных, способных к машинному обучению в режиме реального времени. Для обеспечения работы миллиардов таких устройств потребуются гигантские мощности и такие сервисы, которые пока что даже не разработаны.