Гипермасштабные вычисления — балансировка нагрузки для больших объемов данных

Большие данные и облачные вычисления — это все. Индустрия 4.0, Интернет вещей и самоуправляемые автомобили стали темами повседневных разговоров. Все эти технологии опираются на сетевые технологии для объединения большого количества датчиков, устройств и компьютеров. Генерируются огромные объемы данных, и все эти данные должны обрабатываться в режиме реального времени и мгновенно преобразовываться в действия. Будь то промышленный сектор или частные дома, наука или исследования, объемы данных растут экспоненциально. Каждую минуту в Интернете отправляется или загружается около 220 000 сообщений в Instagram, 280 000 твитов и 205 миллионов электронных писем.

Однако объемы данных колеблются, поэтому не всегда можно предугадать, сколько серверных мощностей потребуется и когда. Именно поэтому серверная инфраструктура должна быть масштабируемой. В этом руководстве по гипермасштабируемым вычислениям мы рассмотрим, какие физические структуры используются для достижения этой цели и как их лучше всего связать между собой. Это поможет вам решить, какой тип серверного решения лучше всего подходит для ваших нужд.

Что такое гипермасштабирование?

Термин «гипермасштаб» используется в мире вычислительной техники для описания определенного типа серверной установки.

Определение

Термин «гипермасштаб» относится к масштабируемым облачным вычислительным системам, в которых очень большое количество серверов объединено в сеть. Количество серверов, используемых в любой момент времени, может увеличиваться или уменьшаться в зависимости от меняющихся требований. Это означает, что сеть может эффективно обрабатывать как большие, так и малые объемы трафика данных.

Если сеть характеризуется как «масштабируемая», она может адаптироваться к изменяющимся требованиям к производительности. Гипермасштабируемые серверы — это небольшие, простые системы, предназначенные для конкретной цели. Для достижения масштабируемости серверы объединяются в сеть «горизонтально». Это означает, что для увеличения вычислительной мощности ИТ-системы добавляются дополнительные серверные мощности. Горизонтальное масштабирование также называют «масштабированием наружу».

Альтернативное решение — вертикальное масштабирование или масштабирование вверх — предполагает модернизацию существующей локальной системы, например, за счет использования лучшего оборудования: большего объема оперативной памяти, более быстрого процессора или видеокарты, более мощных жестких дисков и т.д. На практике вертикальное масштабирование обычно идет первым. Другими словами, локальные системы модернизируются настолько, насколько это технически возможно, или насколько позволяет бюджет на оборудование, после чего единственным оставшимся решением, как правило, становится гипермасштабирование.

Как работает гипермасштабирование?

В гипермасштабных вычислениях простые серверы объединяются в горизонтальную сеть. «Простые» здесь не означает примитивные; это означает, что серверы легко объединить в сеть. Используется только несколько основных соглашений (например, сетевые протоколы). Это облегчает управление связью между различными серверами.

Сеть включает компьютер, известный как «балансировщик нагрузки». Балансировщик нагрузки отвечает за управление входящими запросами и направляет их на серверы, имеющие наибольшую пропускную способность. Он постоянно отслеживает нагрузку на каждый сервер и объем данных, требующих обработки, и соответственно включает или выключает серверы.

Анализ показывает, что компании активно используют только 25-30 процентов своих данных. Остальной процент приходится на резервные копии, данные клиентов, данные для восстановления и т.д. Без тщательно организованной системы данные бывает трудно найти, а на создание резервных копий иногда уходит несколько дней. Гипермасштабируемые вычисления упрощают все это, поскольку существует только одна точка соприкосновения между всем оборудованием, необходимым для вычислений, хранения и сетей, и резервными копиями данных, операционными системами и другим необходимым программным обеспечением. Объединяя аппаратное обеспечение с вспомогательными системами, компании могут расширить свою текущую вычислительную среду до нескольких тысяч серверов.

Это ограничивает необходимость постоянного копирования данных и облегчает для компаний внедрение руководящих принципов и проверок безопасности, что, в свою очередь, снижает расходы на персонал и администраторов.

Преимущества и недостатки гипермасштабных вычислений

Возможность быстро увеличивать или уменьшать мощность сервера имеет как преимущества, так и недостатки:

Преимущества

  • Масштабирование не имеет ограничений, поэтому компании могут расширять свою систему, когда им это необходимо. Это означает, что они могут быстро и экономически эффективно адаптироваться к изменениям на рынке.
  • Компаниям приходится определять долгосрочные стратегии развития своих ИТ-сетей.
  • Поставщики гипермасштабных вычислений используют принцип избыточности, чтобы гарантировать высокий уровень надежности.
  • Компании могут избежать зависимости от одного поставщика, используя одновременно несколько различных провайдеров.
  • Расходы предсказуемы, а решение экономически эффективно, что помогает компаниям достичь своих целей.

Недостатки

  • Компании имеют меньший контроль над своими данными.
  • Добавление новых объемов памяти/серверов может привести к ошибкам.
  • Требования к внутреннему управлению и ответственности сотрудников выше, хотя в долгосрочной перспективе это является преимуществом.
  • Пользователи становятся зависимыми от структуры цен поставщика гипермасштаба.
  • Каждый поставщик имеет свой собственный пользовательский интерфейс.

Чтобы сбалансировать плюсы и минусы, компании могут выбрать гибридное решение и использовать облако только для хранения особо крупных резервных копий или данных, которые нужны им нечасто. Это освобождает место в собственном центре хранения данных. В качестве примера можно привести личные данные пользователей сайта интернет-магазина, которые должны быть раскрыты отдельным пользователям и удалены по их требованию, или данные, которые компания должна хранить в соответствии с требованиями законодательства.

Что такое гиперскейлер?

Гиперскалер — это оператор центра обработки данных, который предлагает масштабируемые услуги облачных вычислений. Первой компанией, которая вышла на этот рынок, была Amazon в 2006 году с сервисом Amazon Web Services (AWS). AWS — это дочерняя компания Amazon, которая помогает оптимизировать использование центров обработки данных Amazon по всему миру. AWS также предлагает широкий спектр специфических услуг. Ее доля рынка составляет около 40%. Два других крупных игрока на этом рынке — Microsoft со своим сервисом Azure (2010) и Google Cloud Platform (2010). IBM также является крупным поставщиком решений для гипермасштабных вычислений. Все эти компании также работают с проверенными партнерами, предлагая свои технические услуги через местные центры обработки данных в конкретных странах. Это важный момент для многих компаний, особенно после вступления в силу Общего положения о защите данных.

Примечание

IONOS Cloud является хорошей альтернативой крупным американским гипермасштабам. Основным направлением решения является инфраструктура как услуга (IaaS), и оно включает предложения для Compute Engine, Managed Kubernetes, S3 Object Storage или Private Cloud.

Оцените статью
cdelat.ru
Добавить комментарий