Тарифы Услуги Сим-карты

Модель с применением множества доверенных удостоверений сервиса. Основы масштабирования

) Здравствуйте! Я Александр Макаров, и вы можете меня знать по фреймворку «Yii» — я один из его разработчиков. У меня также есть full-time работа — и это уже не стартап — Stay.com, который занимается путешествиями.

Сегодня я буду рассказывать про горизонтальное масштабирование, но в очень-очень общих словах.

Что такое масштабирование, вообще? Это возможность увеличить производительность проекта за минимальное время путем добавления ресурсов.

Обычно масштабирование подразумевает не переписывание кода, а либо добавление серверов, либо наращивание ресурсов существующего. По этому типу выделяют вертикальное и горизонтальное масштабирование.

Вертикальное — это когда добавляют больше оперативки, дисков и т.д. на уже существующий сервер, а горизонтальное — это когда ставят больше серверов в дата-центры, и сервера там уже как-то взаимодействуют.

Самый классный вопрос, который задают, — а зачем оно надо, если у меня все и на одном сервере прекрасно работает? На самом-то деле, надо проверить, что будет. Т.е., сейчас оно работает, но что будет потом? Есть две замечательные утилиты — ab и siege, которые как бы нагоняют тучу пользователей конкурента, которые начинают долбить сервер, пытаются запросить странички, послать какие-то запросы. Вы должны указать, что им делать, а утилиты формируют такие вот отчеты:

Главные два параметра: n — количество запросов, которые надо сделать, с — количество одновременных запросов. Таким образом они проверяют конкурентность.

На выходе получаем RPS, т.е. количество запросов в секунду, которое способен обработать сервер, из чего станет понятно, сколько пользователей он может выдержать. Все, конечно, зависит от проекта, бывает по-разному, но обычно это требует внимания.

Есть еще один параметр — Response time — время ответа, за которое в среднем сервер отдал страничку. Оно бывает разное, но известно, что около 300 мс — это норма, а что выше — уже не очень хорошо, потому что эти 300 мс отрабатывает сервер, к этому прибавляются еще 300-600 мс, которые отрабатывает клиент, т.е. пока все загрузится — стили, картинки и остальное — тоже проходит время.

Бывает, что на самом деле пока и не надо заботиться о масштабировании — идем на сервер, обновляем PHP, получаем 40% прироста производительности и все круто. Далее настраиваем Opcache, тюним его. Opcache, кстати, тюнится так же, как и APC, скриптом, который можно найти в репозитории у Расмуса Лердорфа и который показывает хиты и мисы, где хиты — это сколько раз PHP пошел в кэш, а мисы — сколько раз он пошел в файловую систему доставать файлики. Если прогнать весь сайт, либо запустить туда какой-то краулер по ссылкам, либо вручную потыкать, то у нас будет статистика по этим хитам и мисам. Если хитов 100%, а мисов — 0%, значит, все нормально, а если есть мисы, то надо выделить больше памяти, чтобы весь наш код влез в Opcache. Это частая ошибка, которую допускают — вроде Opcache есть, но что-то не работает…

Еще часто начинают масштабировать, но не смотрят, вообще, из-за чего все работает медленно. Чаще всего лезем в базу, смотрим — индексов нет, ставим индексы — все сразу залетало, еще на 2 года хватит, красота!

Ну, еще надо включить кэш, заменить apache на nginx и php-fpm, чтобы сэкономить память. Будет все классно.

Все перечисленное достаточно просто и дает вам время. Время на то, что когда-то этого станет мало, и к этому уже сейчас надо готовиться.

Как, вообще, понять, в чем проблема? Либо у вас уже настал highload, а это не обязательно какое-то бешеное число запросов и т.д., это, когда у вас проект не справляется с нагрузкой, и тривиальными способами это уже не решается. Надо расти либо вширь, либо вверх. Надо что-то делать и, скорее всего, на это мало времени, что-то надо придумывать.

Первое правило — никогда ничего нельзя делать вслепую, т.е. нам нужен отличный мониторинг. Сначала мы выигрываем время на какой-то очевидной оптимизации типа включения кэша или кэширования Главной и т.п. Потом настраиваем мониторинг, он нам показывает, чего не хватает. И все это повторяется многократно – останавливать мониторинг и доработку никогда нельзя.

Что может показать мониторинг? Мы можем упереться в диск, т.е. в файловую систему, в память, в процессор, в сеть… И может быть такое, что, вроде бы, все более-менее, но какие-то ошибки валятся. Все это разрешается по-разному. Можно проблему, допустим, с диском решить добавлением нового диска в тот же сервер, а можно поставить второй сервер, который будет заниматься только файлами.

На что нужно обращать внимание прямо сейчас при мониторинге? Это:

  1. доступность, т.е. жив сервер, вообще, или нет;
  2. нехватка ресурсов диска, процессора и т.д.;
  3. ошибки.
Как это все мониторить?

Вот список замечательных инструментов, которые позволяют мониторить ресурсы и показывать результаты в очень удобном виде:

Этот доклад - расшифровка одного из лучших выступлений на обучающей конференции разработчиков высоконагруженных систем за 2015 год.

Старьё! - скажите вы.
- Вечные ценности! - ответим мы.

  • highload junior
  • Добавить метки

    Уже немало слов было сказано по этой теме как в моем блоге, так и за его пределами. Мне кажется настал подходящий момент для того, чтобы перейти от частного к общему и попытаться взглянуть на данную тему отдельно от какой-либо успешной ее реализации.

    Приступим?

    Для начала имеет смысл определиться с тем, о чем мы вообще будем говорить. В данном контексте перед веб-приложением ставятся три основные цели:

    • масштабируемость - способность своевременно реагировать на непрерывный рост нагрузки и непредвиденные наплывы пользователей;
    • доступность - предоставление доступа к приложению даже в случае чрезвычайных обстоятельств;
    • производительность - даже малейшая задержка в загрузке страницы может оставить негативное впечатление у пользователя.

    Основной темой разговора будет, как не трудно догадаться, масштабируемость, но и остальные цели не думаю, что останутся в стороне. Сразу хочется сказать пару слов про доступность, чтобы не возвращаться к этому позднее, подразумевая как "само собой разумеется": любой сайт так или иначе стремится к тому, чтобы функционировать максимально стабильно, то есть быть доступным абсолютно всем своим потенциальным посетителям в абсолютно каждый момент времени, но порой случаются всякие непредвиденные ситуации, которые могут стать причиной временной недоступности. Для минимизации потенциального ущерба доступности приложения необходимо избегать наличия компонентов в системе, потенциальный сбой в которых привел бы к недоступности какой-либо функциональности или данных (или хотябы сайта в целом). Таким образом каждый сервер или любой другой компонент системы должен иметь хотябы одного дублера (не важно в каком режиме они будут работать: параллельно или один "подстраховывает" другой, находясь при этом в пассивном режиме), а данные должны быть реплицированы как минимум в двух экземплярах (причем желательно не на уровне RAID, а на разных физических машинах). Хранение нескольких резервных копий данных где-то отдельно от основной системы (например на специальных сервисах или на отдельном кластере) также поможет избежать многих проблем, если что-то пойдет не так. Не стоит забывать и о финансовой стороне вопроса: подстраховка на случай сбоев требует дополнительных существенных вложений в оборудование, которые имеет смысл стараться минимизировать.

    Масштабируемость принято разделять на два направления:

    Вертикальная масштабируемость Увеличение производительности каждого компонента системы c целью повышения общей производительности. Горизонтальная масштабируемость Разбиение системы на более мелкие структурные компоненты и разнесение их по отдельным физическим машинам (или их группам) и/или увеличение количества серверов параллельно выполняющих одну и ту же функцию.

    Так или иначе, при разработке стратегии роста системы приходится искать компромис между ценой, временем разработки, итоговой производительность, стабильностью и еще массой других критериев. С финансовой точки зрения вертикальная масштабируемость является далеко не самым привлекательным решением, ведь цены на сервера с большим количеством процессоров всегда растут практически экспоненциально относительно количества процессоров. Именно по-этому наиболее интересен горизонтальный подход, так как именно он используется в большинстве случаев. Но и вертикальная масштабируемость порой имеет право на существование, особенно в ситуациях, когда основную роль играет время и скорость решения задачи, а не финансовый вопрос: ведь купить БОЛЬШОЙ сервер существенно быстрее, чем практически заново разрабатывать приложения, адаптируя его к работе на большом количестве параллельно работающих серверов.

    Закончив с общими словами давайте перейдем к обзору потенциальных проблем и вариантов их решений при горизонтальном масштабировании. Просьба особо не критиковать - на абсолютную правильность и достоверность не претендую, просто "мысли вслух", да и даже упомянуть все моменты данной темы у меня определенно не получится.

    Серверы приложений

    В процессе масштабирования самих приложений редко возникают проблемы, если при разработке всегда иметь ввиду, что каждый экземпляр приложения должен быть непосредственно никак не связан со своими "коллегами" и должен иметь возможность обработать абсолютно любой запрос пользователя вне зависимости от того где обрабатывались предыдущие запросы данного пользователя и что конкретно он хочет от приложения в целом в текущий момень.

    Далее, обеспечив независимость каждого отдельного запущенного приложения, можно обрабатывать все большее и большее количество запросов в единицу времени просто увеличивая количество параллельно функционирующих серверов приложений, участвующих в системе. Все достаточно просто (относительно).

    Балансировка нагрузки

    Следущая задача - равномерно распределить запросы между доступными серверами приложений. Существует масса подходов к решению этой задачи и еще больше продуктов, предлагающих их конкретную реализацию.

    Оборудование Сетевое оборудование, позволяющее распределять нагрузку между несколькими серверами, обычно стоит достаточно внушительные суммы, но среди прочих вариантов обычно именно этот подход предлагает наивысшую производительность и стабильность (в основном благодаря качеству, плюс такое оборудование иногда поставляется парами, работающими по принципу ). В этой индустрии достаточно много серьезных брендов, предлагающих свои решения - есть из чего выбрать: Cisco , Foundry , NetScalar и многие другие. Программное обеспечение В этой области еще большее разнообразие возможных вариантов. Получить программно производительность сопоставимую с аппаратными решениями не так-то просто, да и HeartBeat придется обеспечивать программно, но зато оборудование для функционирования такого решения представляет собой обычный сервер (возможно не один). Таких программных продуктов достаточно много, обычно они представляют собой просто HTTP-серверы, перенаправляющие запросы своим коллегам на других серверах вместо отправки напрямую на обработку интерпретатору языка программирования. Для примера можно упомянуть, скажем, с mod_proxy . Помимо этого имеют место более экзотические варианты, основанные на DNS, то есть в процессе определения клиентом IP-адреса сервера с необходимым ему интернет-ресурсов адрес выдается с учетом нагрузки на доступные сервера, а также некоторых географических соображений.

    Каждый вариант имеет свой ассортимент положительных и отрицательных сторон, именно по-этому однозначного решения этой задачи не существует - каждый вариант хорош в своей конкретной ситуации. Не стоит забывать, что никто не ограничивает Вас в использовании лишь одного из них, при необходимости может запросто быть реализована и практически произвольная комбинация из них.

    Ресурсоемкие вычисления

    Во многих приложениях используются какие-либо сложные механизмы, это может быть конвертирование видео, изображений, звука, или просто выполнение каких-либо ресурсоемких вычислений. Такие задачи требует отдельного внимания если мы говорим о Сети, так как пользователь интернет-ресурса врядли будет счастлив наблюдать за загружающейся несколько минут страницей в ожидании лишь для того, чтобы увидеть сообщение вроде: "Операция завершена успешно!".

    Для избежания подобных ситуаций стоит постараться минимизировать выполнение ресурсоемких операций синхронно с генерацией интернет страниц. Если какая-то конкретная операция не влияет на новую страницу, отправляемую пользователю, то можно просто организовать очередь заданий, которые необходимо выполнить. В таком случае в момент когда пользователь совершил все действия, необходимые для начала операции, сервер приложений просто добавляет новое задание в очередь и сразу начинает генерировать следущую страницу, не дожидаясь результатов. Если задача на самом деле очень трудоемкая, то такая очередь и обработчики заданий могут располагаться на отдельном сервере или кластере.

    Если результат выполнения операции задействован в следующей странице, отправляемой пользователю, то при асинхронном ее выполнении придется несколько схитрить и как-либо отвлечь пользователя на время ее выполнения. Например, если речь идет о конвертировании видео в flv , то например можно быстро сгенерировать скриншот с первым кадром в процессе составления страницы и подставить его на место видео, а возможность просмотра динамически добавить на страницу уже после, когда конвертирование будет завершено.

    Еще один неплохой метод обработки таких ситуаций заключается просто в том, чтобы попросить пользователя "зайти попозже". Например, если сервис генерирует скриншоты веб-сайтов из различных браузеров с целью продемонстрировать правильность их отображения владельцам или просто интересующимся, то генерация страницы с ними может занимать даже не секунды, а минуты. Наиболее удобным для пользователя в такой ситуации будет предложение посетить страницу по указанному адресу через столько-то минут, а не ждать у моря погоды неопределенный срок.

    Сессии

    Практически все веб-приложения каким-либо образом взаимодействуют со своими посетителями и в подавляющем большинстве случаев в них присутствует необходимость отслеживать перемещения пользователей по страницам сайта. Для решения этой задачи обычно используется механизм сессий , который заключается в присвоении каждому посетителю уникального идентификационного номера, который ему передается для хранения в cookies или, в случае их отсутствия, для постоянного "таскания" за собой через GET. Получив от пользователя некий ID вместе с очередным HTTP-запросом сервер может посмотреть в список уже выданных номеров и однозначно определить кто его отправил. С каждым ID может ассоциироваться некий набор данных, который веб-приложение может использовать по своему усмотрению, эти данные обычно по-умолчанию хранятся в файле во временной директории на сервере.

    Казалось бы все просто, но... но запросы посетителей одного и того же сайта могут обрабатывать сразу несколько серверов, как же тогда определить не был ли выдан полученный ID на другом сервере и где вообще хранятся его данные?

    Наиболее распространенными решениями является централизация или децентрализация сессионных данных. Несколько абсурдная фраза, но, надеюсь, пара примеров сможет прояснить ситуацию:

    Централизованное хранение сессий Идея проста: создать для всех серверов общую "копилку", куда они смогут складывать выданные ими сессии и узнавать о сессиях посетителей других серверов. В роли такой "копилки" теоретически может выступать и просто примонтированная по сети файловая система, но по некоторым причинам более перспективным выглядит использование какой-либо СУБД, так как это избавляет от массы проблем, связанных с хранением сессионных данных в файлах. Но в варианте с общей базой данных не стоит забывать, что нагрузка на него будет неуклонно расти с ростом количества посетителей, а также стоит заранее предусмотреть варианты выхода из проблематичных ситуаций, связанных с потенциальными сбоями в работе сервера с этой СУБД. Децентрализованное хранение сессий Наглядный пример - хранение сессий в , изначально расчитанная на распределенное хранение данных в оперативной памяти система позволит получать всем серверам быстрый доступ к любым сессионным данным, но при этом (в отличии от предыдущего способа) какой-либо единый центр их хранения будет отсутствовать. Это позволит избежать узких мест с точек зрения производительности и стабильности в периоды повышенных нагрузок.

    В качестве альтернативы сессиям иногда используют похожие по предназначению механизмы, построенные на cookies, то есть все необходимые приложению данные о пользователе хранятся на клиентской стороне (вероятно в зашифрованном виде) и запрашиваются по мере необходимости. Но помимо очевидных преимуществ, связанных с отсутствием необходимости хранить лишние данные на сервере, возникает ряд проблем с безопасностью. Данные, хранимые на стороне клиента даже в зашифрованном виде, представляют собой потенциальную угрозу для функционирования многих приложений, так как любой желающий может попытаться модифицировать их в своих интересах или с целью навредить приложению. Такой подход хорош только если есть уверенность, что абсолютно любые манипуляции с хранимые у пользователей данными безопасны. Но можно ли быть уверенными на 100%?

    Статический контент

    Пока объемы статических данных невелики - никто не мешает хранить их в локальной файловой системе и предоставлять доступ к ним просто через отдельный легковесный веб-сервер вроде (я подразумеваю в основном разные формы медиа-данных), но рано или поздно лимит сервера по дисковому пространству или файловой системы по количеству файлов в одной директории будет достигнут, и придется думать о перераспределении контента. Временным решением может стать распределение данных по их типу на разные сервера, или, возможно, использование иерархической структуры каталогов.

    Если статический контент играет одну из основных ролей в работе приложения, то стоит задуматься о применении распределенной файловой системы для его хранения. Это, пожалуй, один из немногих способов горизонтально масштабировать объем дискового пространства путем добавления дополнительных серверов без каких-либо кардинальных изменений в работе самого приложения. На какой именно кластерной файловой системе остановить свой выбор ничего сейчас советовать не хочу, я уже опубликовал далеко не один обзор конкретных реализаций - попробуйте прочитать их все и сравнить, если этого мало - вся остальная Сеть в Вашем распоряжении.

    Возможно такой вариант по каким-либо причинам будет нереализуем, тогда придется "изобретать велосипед" для реализации на уровне приложения принципов схожих с сегментированием данных в отношении СУБД, о которых я еще упомяну далее. Этот вариант также вполне эффективен, но требует модификации логики приложения, а значит и выполнение дополнительной работы разработчиками.

    Альтернативой этим подходам выступает использование так называемых Content Delievery Network - внешних сервисов, обеспечивающих доступность Вашего контента пользователям за определенное материальное вознаграждение сервису. Преимущество очевидно - нет необходимости организовывать собственную инфраструктуру для решения этой задачи, но зато появляется другая дополнительная статья расходов. Список таких сервисов приводить не буду, если кому-нибудь понадобится - найти будет не трудно.

    Кэширование

    Кэширование имеет смысл проводить на всех этапах обработки данных, но в разных типах приложений наиболее эффективными являются лишь некоторые методы кэширования.

    СУБД Практически все современные СУБД предоставляют встроенные механизмы для кэширования результатов определенных запросов. Этот метод достаточно эффективен, если Ваша система регулярно делает одни и те же выборки данных, но также имеет ряд недостатков, основными из которых является инвалидация кэша всей таблицы при малейшем ее изменении, а также локальное расположение кэша, что неэффективно при наличии нескольких серверов в системе хранения данных. Приложение На уровне приложений обычно производится кэширование объектов любого языка программирования. Этот метод позволяет вовсе избежать существенной части запросов к СУБД, сильно снижая нагрузку на нее. Как и сами приложения такой кэш должен быть независим от конкретного запроса и сервера, на котором он выполняется, то есть быть доступным всем серверам приложений одновременно, а еще лучше - быть распределенным по нескольким машинам для более эффективной утилизации оперативной памяти. Лидером в этом аспекте кэширования по праву можно назвать , о котором я в свое время уже успел . HTTP-сервер Многие веб-серверы имеют модули для кэширования как статического контента, так и результатов работы скриптов. Если страница редко обновляется, то использование этого метода позволяет без каких-либо видимых для пользователя изменений избегать генерации страницы в ответ на достаточно большую часть запросов. Reverse proxy Поставив между пользователем и веб-сервером прозрачный прокси-сервер, можно выдавать пользователю данные из кэша прокси (который может быть как в оперативной памяти, так и дисковым), не доводя запросы даже до HTTP-серверов. В большинстве случаев этот подход актуален только для статического контента, в основном разных форм медиа-данных: изображений, видео и тому подобного. Это позволяет веб-серверам сосредоточиться только на работе с самими страницами.

    Кэширование по своей сути практически не требует дополнительных затрат на оборудование, особенно если внимательно наблюдать за использованием оперативной памяти остальными компонентами серверами и утилизировать все доступные "излишки" под наиболее подходящие конкретному приложению формы кэша.

    Инвалидация кэша в некоторых случаях может стать нетривиальной задачей, но так или иначе универсального решения всех возможных проблем с ней связанных написать не представляется возможным (по крайней мере лично мне), так что оставим этот вопрос до лучших времен. В общем случае решение этой задачи ложится на само веб-приложение, которое обычно реализует некий механизм инвалидации средствами удаления объекта кэша через определенный период времени после его создания или последнего использования, либо "вручную" при возникновении определенных событий со стороны пользователя или других компонентов системы.

    Базы данных

    На закуску я оставил самое интересное, ведь этот неотъемлемый компонент любого веб-приложения вызывает больше проблем при росте нагрузок, чем все остальные вместе взятые. Порой даже может показаться, что стоит вообще отказаться от горизонтального масштабирования системы хранения данных в пользу вертикального - просто купить тот самый БОЛЬШОЙ сервер за шести- или семизначную сумму не-рублей и не забивать себе голову лишними проблемами.

    Но для многих проектов такое кардинальное решение (и то, по большому счету, временное) не подходит, а значит перед ними осталась лишь одна дорога - горизонтальное масштабирование. О ней и поговорим.

    Путь практически любого веб проекта с точки зрения баз данных начинался с одного простого сервера, на котором работал весь проект целиком. Затем в один прекрасный момент наступает необходимость вынести СУБД на отдельный сервер, но и он со временем начинает не справляться с нагрузкой. Подробно останавливаться на этих двух этапах смысла особого нет - все относительно тривиально.

    Следующим шагом обычно бывает master-slave с асинхронной репликацией данных, как работает эта схема уже неоднократно упоминалось в блоге, но, пожалуй, повторюсь: при таком подходе все операции записи выполняются лишь на одном сервере (master), а остальные сервера (slave) получают данные напрямую от "мастера", обрабатывая при этом лишь запросы на чтение данных. Как известно, операции чтения и записи любого веб-проекта всегда растут пропорционально росту нагрузки, при этом сохраняется почти фиксированным соотношение между обоими типами запросов: на каждый запрос на обновление данных обычно приходится в среднем около десятка запросов на чтение. Со временем нагрузка растет, а значит растет и количество операций записи в единицу времени, а сервер-то обрабатывает их всего один, а затем он же еще и обеспечивает создание некоторого количества копий на других серверах. Рано или поздно издержки операций репликации данных станут быть настолько высоки, что этот процесс станет занимать очень большую часть процессорного времени каждого сервера, а каждый slave сможет обрабатывать лишь сравнительно небольшое количество операций чтения, и, как следствие, каждый дополнительный slave-сервер начнет увеличивать суммарную производительность лишь незначительно, тоже занимаясь по большей части лишь поддержанием своих данных в соответствии с "мастером".

    Временным решением этой проблемы, возможно, может стать замена master-сервера на более производительный, но так или иначе не выйдет бесконечно откладывать переход на следующий "уровень" развития системы хранения данных: "sharding" , которому я совсем недавно посвятил . Так что позволю себе остановиться на нем лишь вкратце: идея заключается в том, чтобы разделить все данные на части по какому-либо признаку и хранить каждую часть на отдельном сервере или кластере, такую часть данных в совокупности с системой хранения данных, в которой она находится, и называют сегментом или shard ’ом. Такой подход позволяет избежать издержек, связанных с реплицированием данных (или сократить их во много раз), а значит и существенно увеличить общую производительность системы хранения данных. Но, к сожалению, переход к этой схеме организации данных требует массу издержек другого рода. Так как готового решения для ее реализации не существует, приходится модифицировать логику приложения или добавлять дополнительную "прослойку" между приложением и СУБД, причем все это чаще всего реализуется силами разработчиков проекта. Готовые продукты способны лишь облегчить их работу, предоставив некий каркас для построения основной архитектуры системы хранения данных и ее взаимодействия с остальными компонентами приложения.

    На этом этапе цепочка обычно заканчивается, так как сегментированные базы данных могут горизонтально масштабироваться для того, чтобы в полной мере удовлетворить потребности даже самых высоконагруженных интернет-ресурсов. К месту было бы сказать пару слов и о собственно самой структуре данных в рамках баз данных и организации доступа к ним, но какие-либо решения сильно зависят от конкретного приложения и реализации, так что позволю себе лишь дать пару общих рекомендаций:

    Денормализация Запросы, комбинирующие данные из нескольких таблиц, обычно при прочих равных требуют большего процессорного времени для выполнения, чем запрос, затрагивающий лишь одну таблицу. А производительность, как уже упоминалось в начале повествования, чрезвычайно важна на просторах Сети. Логическое разбиение данных Если какая-то часть данных всегда используется отдельно от основной массы, то иногда имеет смысл выделить ее в отдельную независимую систему хранения данных. Низкоуровневая оптимизация запросов Ведя и анализируя логи запросов, можно определить наиболее медленные из них. Замена найденных запросов на более эффективные с той же функциональностью может помочь более рационально использовать вычислительные мощности.

    В этом разделе стоит упомянуть еще один, более специфический, тип интернет-проектов. Такие проекты оперируют данными, не имеющими четко формализованную структуру, в таких ситуациях использование реляционных СУБД в качестве хранилища данных, мягко говоря, нецелесообразно. В этих случаях обычно используют менее строгие базы данных, с более примитивной функциональностью в плане обработки данных, но зато они способны обрабатывать огромные объемы информации не придираясь к его качеству и соответствию формату. В качестве основы для такого хранилища данных может служить кластерная файловая система, а для анализа же данных в таком случае используется механизм под названием , принцип его работы я расскажу лишь вкратце, так как в полном своем масштабе он несколько выходит за рамки данного повествования.

    Итак, мы имеем на входе некие произвольные данные в не факт что правильно соблюденном формате. В результате нужно получить некое итоговое значение или информацию. Согласно данному механизму практически любой анализ данных можно провести в следующие два этапа:

    Map Основной целью данного этапа является представление произвольных входных данных в виде промежуточных пар ключ-значение, имеющих определенный смысл и формально оформленных. Результаты подвергаются сортировке и группированию по ключу, а после чего передаются на следующий этап. Reduce Полученные после map значения используются для финального вычисления требуемых итоговых данных.

    Каждый этап каждого конкретного вычисления реализуется в виде независимого мини-приложения. Такой подход позволяет практически неограниченно распараллеливать вычисления на огромном количестве машин, что позволяет в мгновения обрабатывать объемы практически произвольных данных. Для этого достаточно лишь запустить эти приложения на каждом доступном сервере одновременно, а затем собрать воедино все результаты.

    Примером готового каркаса для реализации работы с данными по такому принципу служит opensource проект Apache Foundation под названием , о котором я уже неоднократно рассказывал ранее, да и написал в свое время.

    Вместо заключения

    Если честно, мне с трудом верится, что я смог написать настолько всеобъемлющий пост и сил на подведение итогов уже практически не осталось. Хочется лишь сказать, что в разработке крупных проектов важна каждая деталь, а неучтенная мелочь может стать причиной провала. Именно по-этому в этом деле учиться стоит не на своих ошибках, а на чужих.

    Хоть может быть этот текст и выглядит как некое обобщение всех постов из серии , но врядли он станет финальной точкой, надеюсь мне найдется что сказать по этой теме и в будущем, может быть однажды это будет основано и на личном опыте, а не просто будет результатом переработки массы полученной мной информации. Кто знает?...

    С ростом популярности web-приложения его поддержка неизбежно начинает требовать всё больших и больших ресурсов. Первое время с нагрузкой можно (и, несомненно, нужно) бороться путём оптимизации алгоритмов и/или архитектуры самого приложения. Однако, что делать, если всё, что можно было оптимизировать, уже оптимизировано, а приложение всё равно не справляется с нагрузкой?

    Оптимизация

    Первым делом стоит сесть и подумать, а всё ли вам уже удалось оптимизировать:
    • оптимальны ли запросы к БД (анализ EXPLAIN, использование индексов)?
    • правильно ли хранятся данные (SQL vs NoSQL)?
    • используется ли кеширование?
    • нет ли излишних запросов к ФС или БД?
    • оптимальны ли алгоритмы обработки данных?
    • оптимальны ли настройки окружения: Apache/Nginx, MySQL/PostgreSQL, PHP/Python?
    О каждом из этих пунктов можно написать отдельную статью, так что детальное их рассмотрение в рамках данной статьи явно избыточно. Важно лишь понимать, что перед тем как приступить к масштабированию приложения, крайне желательно максимально оптимизировать его работу – ведь возможно тогда никакого масштабирования и не потребуется.

    Масштабирование

    И так, допустим, что оптимизация уже проведена, но приложение всё равно не справляется с нагрузкой. В таком случае решением проблемы, очевидно, может послужить разнесение его по нескольким хостам, с целью увеличения общей производительности приложения за счёт увеличения доступных ресурсов. Такой подход имеет официальное название – «масштабирование» (scale) приложения. Точнее говоря, под «масштабируемостью » (scalability) называется возможность системы увеличивать свою производительность при увеличении количества выделяемых ей ресурсов. Различают два способа масштабирования: вертикальное и горизонтальное. Вертикальное масштабирование подразумевает увеличение производительности приложения при добавлении ресурсов (процессора, памяти, диска) в рамках одного узла (хоста). Горизонтальное масштабирование характерно для распределённых приложений и подразумевает рост производительности приложения при добавлении ещё одного узла (хоста).

    Понятно, что самым простым способом будет простое обновление железа (процессора, памяти, диска) – то есть вертикальное масштабирование. Кроме того, этот подход не требует никаких доработок приложения. Однако, вертикальное масштабирование очень быстро достигает своего предела, после чего разработчику и администратору ничего не остаётся кроме как перейти к горизонтальному масштабированию приложения.

    Архитектура приложения

    Большинство web-приложений априори являются распределёнными, так как в их архитектуре можно выделить минимум три слоя: web-сервер, бизнес-логика (приложение), данные (БД, статика).

    Каждый их этих слоёв может быть масштабирован. Поэтому если в вашей системе приложение и БД живут на одном хосте – первым шагом, несомненно, должно стать разнесение их по разным хостам.

    Узкое место

    Приступая к масштабированию системы, первым делом стоит определить, какой из слоёв является «узким местом» - то есть работает медленнее остальной системы. Для начала можно воспользоваться банальными утилитами типа top (htop) для оценки потребления процессора/памяти и df, iostat для оценки потребления диска. Однако, желательно выделить отдельный хост, с эмуляцией боевой нагрузки (c помощью или JMeter), на котором можно будет профилировать работу приложения с помощью таких утилит как xdebug , и так далее. Для выявления узких запросов к БД можно воспользоваться утилитами типа pgFouine (понятно, что делать это лучше на основе логов с боевого сервера).

    Обычно всё зависит от архитектуры приложения, но наиболее вероятными кандидатами на «узкое место» в общем случае являются БД и код. Если ваше приложение работает с большим объёмом пользовательских данных, то «узким местом», соответственно, скорее всего будет хранение статики.

    Масштабирование БД

    Как уже говорилось выше, зачастую узким местом в современных приложениях является БД. Проблемы с ней делятся, как правило, на два класса: производительность и необходимость хранения большого количества данных.

    Снизить нагрузку на БД можно разнеся её на несколько хостов. При этом остро встаёт проблема синхронизации между ними, решить которую можно путём реализации схемы master/slave с синхронной или асинхронной репликацией. В случае с PostgreSQL реализовать синхронную репликацию можно с помощью Slony-I , асинхронную – PgPool-II или WAL (9.0). Решить проблему разделения запросов чтения и записи, а так же балансировки нагрузку между имеющимися slave’ами, можно с помощью настройки специального слоя доступа к БД (PgPool-II).

    Проблему хранения большого объёма данных в случае использования реляционных СУБД можно решить с помощью механизма партицирования (“partitioning” в PostgreSQL), либо разворачивая БД на распределённых ФС типа Hadoop DFS .

    Однако, для хранения больших объёмов данных лучшим решением будет «шардинг » (sharding) данных, который является встроенным преимуществом большинства NoSQL БД (например, MongoDB).

    Кроме того, NoSQL БД в общем работают быстрее своих SQL-братьев за счёт отсутствия overhead’а на разбор/оптимизацию запроса, проверки целостности структуры данных и т.д. Тема сравнения реляционных и NoSQL БД так же довольно обширна и заслуживает отдельной статьи .

    Отдельно стоит отметить опыт Facebook, который используют MySQL без JOIN-выборок. Такая стратегия позволяет им значительно легче масштабировать БД, перенося при этом нагрузку с БД на код, который, как будет описано ниже, масштабируется проще БД.

    Масштабирование кода

    Сложности с масштабированием кода зависят от того, сколько разделяемых ресурсов необходимо хостам для работы вашего приложения. Будут ли это только сессии, или потребуется общий кеш и файлы? В любом случае первым делом нужно запустить копии приложения на нескольких хостах с одинаковым окружением.

    Далее необходимо настроить балансировку нагрузки/запросов между этими хостами. Сделать это можно как на уровне TCP (haproxy), так и на HTTP (nginx) или DNS .

    Следующим шагом нужно сделать так, что бы файлы статики, cache и сессии web-приложения были доступны на каждом хосте. Для сессий можно использовать сервер, работающий по сети (например, memcached). В качестве сервера кеша вполне разумно использовать тот же memcached, но, естественно, на другом хосте.

    Файлы статики можно смонтировать с некого общего файлового хранилища по NFS /CIFS или использовать распределённую ФС (HDFS , GlusterFS , Ceph).

    Так же можно хранить файлы в БД (например, Mongo GridFS), решая тем самым проблемы доступности и масштабируемости (с учётом того, что для NoSQL БД проблема масштабируемости решена за счёт шардинга).

    Отдельно стоит отметить проблему деплоймента на несколько хостов. Как сделать так, что бы пользователь, нажимая «Обновить», не видел разные версии приложения? Самым простым решением, на мой взгляд, будет исключение из конфига балансировщика нагрузки (web-сервера) не обновлённых хостов, и последовательного их включения по мере обновления. Так же можно привязать пользователей к конкретным хостам по cookie или IP. Если же обновление требует значимых изменений в БД, проще всего, вообще временно закрыть проект.

    Масштабирование ФС

    При необходимости хранения большого объёма статики можно выделить две проблемы: нехватка места и скорость доступа к данным. Как уже было написано выше, проблему с нехваткой места можно решить как минимум тремя путями: распределённая ФС, хранение данных в БД с поддержкой шардинга и организация шардинга «вручную» на уровне кода.

    При этом стоит понимать, что раздача статики тоже не самая простая задача, когда речь идёт о высоких нагрузках. Поэтому в вполне резонно иметь множество серверов предназначенных для раздачи статики. При этом, если мы имеем общее хранилище данных (распределённая ФС или БД), при сохранении файла мы можем сохранять его имя без учёта хоста, а имя хоста подставлять случайным образом при формировании страницы (случайным образом балансирую нагрузку между web-серверами, раздающими статику). В случае, когда шардинг реализуется вручную (то есть, за выбор хоста, на который будут залиты данные, отвечает логика в коде), информация о хосте заливки должна либо вычисляться на основе самого файла, либо генерироваться на основании третьих данных (информация о пользователе, количестве места на дисках-хранилищах) и сохраняться вместе с именем файла в БД.

    Мониторинг

    Понятно, что большая и сложная система требует постоянного мониторинга. Решение, на мой взгляд, тут стандартное – zabbix, который следит за нагрузкой/работой узлов системы и monit для демонов для подстраховки.

    Заключение

    Выше кратко рассмотрено множество вариантов решений проблем масштабирования web-приложения. Каждый из них обладает своими достоинствами и недостатками. Не существует некоторого рецепта, как сделать всё хорошо и сразу – для каждой задачи найдётся множество решений со своими плюсами и минусами. Какой из них выбрать – решать вам.

    Систем, программных комплексов , систем баз данных , маршрутизаторов , сетей и т. п., если для них требуется возможность работать под большой нагрузкой. Система называется масштабируемой , если она способна увеличивать производительность пропорционально дополнительным ресурсам. Масштабируемость можно оценить через отношение прироста производительности системы к приросту используемых ресурсов. Чем ближе это отношение к единице, тем лучше. Также под масштабируемостью понимается возможность наращивания дополнительных ресурсов без структурных изменений центрального узла системы.

    В системе с плохой масштабируемостью добавление ресурсов приводит лишь к незначительному повышению производительности, а с некоторого «порогового» момента добавление ресурсов не даёт никакого полезного эффекта.

    Вертикальное масштабирование

    Увеличение производительности каждого компонента системы c целью повышения общей производительности.

    Горизонтальное масштабирование

    Разбиение системы на более мелкие структурные компоненты и разнесение их по отдельным физическим машинам (или их группам) и/или увеличение количества серверов параллельно выполняющих одну и ту же функцию.

    Примечания

    См. также

    Ссылки


    Wikimedia Foundation . 2010 .

    Смотреть что такое "Масштабируемость" в других словарях:

      масштабируемость - расширяемость Характеристика приложения, которое исполняется на разных платформах и варьируется в размерах (например, на PC под Windows и на рабочей станции Sun под Unix). Для аппаратных средств предсказуемый рост системных характеристик при… …

      масштабируемость - 3.1.43 масштабируемость (scalability): Способность обеспечивать функциональные возможности вверх и вниз по упорядоченному ряду прикладных платформ, отличающихся по быстродействию и ресурсам. Источник … Словарь-справочник терминов нормативно-технической документации

      Способность программного обеспечения корректно работать на малых и на больших системах с производительностью, которая увеличивается пропорционально вычислительной мощности системы. По английски: Scalability См. также: Открытые системы Программное … Финансовый словарь

      масштабируемость системы (в SCADA) - масштабируемость системы [Интент] Масштабируемость системы. Это означает, что разработанный проект можно опробовать на одном компьютере или маленькой сети и затем расширять систему (в соответствии с программой развития, бюджетом и т. д.) без… … Справочник технического переводчика

      масштабируемость (в информационных технологиях) - Способность ИТ услуги, процесса, конфигурационной единицы и т.п., выполнять свою ранее согласованную функцию, в случае изменения рабочей нагрузки или охвата. [Словарь терминов ITIL версия 1.0, 29 июля 2011 г.] EN scalability The ability of an IT… … Справочник технического переводчика

      масштабируемость (приложения) - масштабируемость расширяемость Характеристика приложения, которое исполняется на разных платформах и варьируется в размерах (например, на PC под Windows и на рабочей станции Sun под Unix). Для аппаратных средств предсказуемый рост системных… … Справочник технического переводчика

      масштабируемость (сети и системы связи) - Критерий экономически эффективной системы автоматизации подстанции, учитывающий различные функциональные характеристики, различные интеллектуальные электронные устройства, размер подстанции и диапазоны напряжений подстанции. [ГОСТ Р 54325 2011… … Справочник технического переводчика

      масштабируемость в широких пределах - — [Л.Г.Суменко. Англо русский словарь по информационным технологиям. М.: ГП ЦНИИС, 2003.] Тематики информационные технологии в целом EN terabyte scalability … Справочник технического переводчика

      горизонтальная масштабируемость - Наращивание мощности системы добавлением узлов в кластер. Тематики информационные технологии в целом EN horizontal scalability … Справочник технического переводчика

      SCALABILITY - масштабируемость - один из основных принципов построения открытых систем, гарантирует сохранение инвестиций в информацию и ПО при переходе на более мощную аппаратную платформу … Словарь электронного бизнеса

    Книги

    • Microsoft SharePoint 2010. Полное руководство , Майкл Ноэл, Колин Спенс. В книге рассматриваются все новые возможности SharePoint - от новых компонентов социальных сетей до усовершенствованного поиска - которые помогают максимально задействовать как SharePoint…

    Масштабируемость - способность устройства увеличивать свои
    возможности
    путем наращивания числа функциональных блоков,
    выполняющих одни и
    те же задачи.
    Глоссарий.ru

    Обычно о масштабировании начинают думать тогда, когда один
    сервер не справляется с возложенной на него работой. С чем именно он не
    справляется? Работа любого web-сервера по большому счету сводится к основному
    занятию компьютеров - обработке данных. Ответ на HTTP (или любой другой) запрос
    подразумевает проведение некоторых операций над некими данными. Соответственно,
    у нас есть две основные сущности - это данные (характеризуемые своим объемом) и
    вычисления (характеризуемые сложностью). Сервер может не справляться со своей
    работой по причине большого объема данных (они могут физически не помещаться на
    сервере), либо по причине большой вычислительной нагрузки. Речь здесь идет,
    конечно, о суммарной нагрузке - сложность обработки одного запроса может быть
    невелика, но большое их количество может «завалить» сервер.

    В основном мы будем говорить о масштабировании на примере
    типичного растущего web-проекта, однако описанные здесь принципы подходят и для
    других областей применения. Сначала мы рассмотрим архитектуру проекта и простое
    распределение ее составных частей на несколько серверов, а затем поговорим о
    масштабировании вычислений и данных.

    Типичная архитектура сайта

    Жизнь типичного сайта начинается с очень простой архитектуры
    - это один web-сервер (обычно в его роли выступает Apache),
    который занимается всей работой по обслуживанию HTTP-запросов,
    поступающих от посетителей. Он отдает клиентам так называемую «статику», то
    есть файлы, лежащие на диске сервера и не требующие обработки: картинки (gif,
    jpg, png), листы стилей (css), клиентские скрипты (js, swf). Тот же сервер
    отвечает на запросы, требующие вычислений - обычно это формирование
    html-страниц, хотя иногда «на лету» создаются и изображения и другие документы.
    Чаще всего ответы на такие запросы формируются скриптами, написанными на php,
    perl или других языках.

    Минус такой простой схемы работы в том, что разные по
    характеру запросы (отдача файлов с диска и вычислительная работа скриптов)
    обрабатываются одним и тем же web-сервером. Вычислительные запросы требуют
    держать в памяти сервера много информации (интерпретатор скриптового языка,
    сами скрипты, данные, с которыми они работают) и могут занимать много
    вычислительных ресурсов. Выдача статики, наоборот, требует мало ресурсов
    процессора, но может занимать продолжительное время, если у клиента низкая
    скорость связи. Внутреннее устройство сервера Apache предполагает, что каждое
    соединение обрабатывается отдельным процессом. Это удобно для работы скриптов,
    однако неоптимально для обработки простых запросов. Получается, что тяжелые (от
    скриптов и прочих данных) процессы Apache много времени проводят в ожидании (сначала при получении
    запроса, затем при отправке ответа), впустую занимая память сервера.

    Решение этой проблемы - распределение работы по обработке
    запросов между двумя разными программами - т.е. разделение на frontend и
    backend. Легкий frontend-сервер выполняет задачи по отдаче статики, а остальные
    запросы перенаправляет (проксирует) на backend, где выполняется формирование
    страниц. Ожидание медленных клиентов также берет на себя frontend, и если он использует
    мультиплексирование (когда один процесс обслуживает нескольких клиентов - так
    работают, например, nginx или lighttpd), то ожидание практически ничего не
    стоит.

    Из других компонент сайта следует отметить базу данных, в
    которой обычно хранятся основные данные системы - тут наиболее популярны
    бесплатные СУБД MySQL и PostgreSQL. Часто отдельно выделяется хранилище
    бинарных файлов, где содержатся картинки (например, иллюстрации к статьям
    сайта, аватары и фотографии пользователей) или другие файлы.

    Таким образом, мы получили схему архитектуры, состоящую из
    нескольких компонент.

    Обычно в начале жизни сайта все компоненты архитектуры
    располагаются на одном сервере. Если он перестает справляться с нагрузкой, то
    есть простое решение - вынести наиболее легко отделяемые части на другой
    сервер. Проще всего начать с базы данных - перенести ее на отдельный сервер и
    изменить реквизиты доступа в скриптах. Кстати, в этот момент мы сталкиваемся с
    важностью правильной архитектуры программного кода. Если работа с базой данных
    вынесена в отдельный модуль, общий для всего сайта - то исправить параметры
    соединения будет просто.

    Пути дальнейшего разделения компонент тоже понятны - например, можно вынести frontend на отдельный сервер. Но обычно frontend
    требует мало системных ресурсов и на этом этапе его вынос не даст существенного
    прироста производительности. Чаще всего сайт упирается в производительность
    скриптов - формирование ответа (html-страницы) занимает слишком долгое время.
    Поэтому следующим шагом обычно является масштабирование backend-сервера.

    Распределение вычислений

    Типичная ситуация для растущего сайта - база данных уже
    вынесена на отдельную машину, разделение на frontend и backend выполнено,
    однако посещаемость продолжает увеличиваться и backend не успевает обрабатывать
    запросы. Это значит, что нам необходимо распределить вычисления на несколько
    серверов. Сделать это просто - достаточно купить второй сервер и поставить на
    него программы и скрипты, необходимые для работы backend.
    После этого надо сделать так, чтобы запросы пользователей распределялись
    (балансировались) между полученными серверами. О разных способах балансировки
    будет сказано ниже, пока же отметим, что обычно этим занимается frontend,
    который настраивают так, чтобы он равномерно распределял запросы между
    серверами.

    Важно, чтобы все backend-серверы были способны правильно
    отвечать на запросы. Обычно для этого необходимо, чтобы каждый из них работал с
    одним и тем же актуальным набором данных. Если мы храним всю информацию в единой
    базе данных, то СУБД сама обеспечит совместный доступ и согласованность данных.
    Если же некоторые данные хранятся локально на сервере (например, php-сессии
    клиента), то стоит подумать о переносе их в общее хранилище, либо о более
    сложном алгоритме распределения запросов.

    Распределить по нескольким серверам можно не только работу
    скриптов, но и вычисления, производимые базой данных. Если СУБД выполняет много
    сложных запросов, занимая процессорное время сервера, можно создать несколько
    копий базы данных на разных серверах. При этом возникает вопрос синхронизации
    данных при изменениях, и здесь применимы несколько подходов.

    • Синхронизация на уровне приложения . В этом случае наши
      скрипты самостоятельно записывают изменения на все копии базы данных (и сами несут
      ответственность за правильность данных). Это не лучший вариант, поскольку он
      требует осторожности при реализации и весьма неустойчив к ошибкам.
    • Репликация - то есть автоматическое тиражирование
      изменений, сделанных на одном сервере, на все остальные сервера. Обычно при
      использовании репликации изменения записываются всегда на один и тот же сервер - его называют master, а остальные копии - slave. В большинстве СУБД есть
      встроенные или внешние средства для организации репликации. Различают
      синхронную репликацию - в этом случае запрос на изменение данных будет ожидать,
      пока данные будут скопированы на все сервера, и лишь потом завершится успешно - и асинхронную - в этом случае изменения копируются на slave-сервера с
      задержкой, зато запрос на запись завершается быстрее.
    • Multi-master репликация. Этот подход аналогичен
      предыдущему, однако тут мы можем производить изменение данных, обращаясь не к
      одному определенному серверу, а к любой копии базы. При этом изменения
      синхронно или асинхронно попадут на другие копии. Иногда такую схему называют
      термином «кластер базы данных».

    Возможны разные варианты распределения системы по серверам.
    Например, у нас может быть один сервер базы данных и несколько backend (весьма
    типичная схема), или наоборот - один backend и несколько БД. А если мы масштабируем
    и backend-сервера, и базу данных, то можно объединить backend и копию базы на
    одной машине. В любом случае, как только у нас появляется несколько экземпляров
    какого-либо сервера, возникает вопрос, как правильно распределить между ними
    нагрузку.

    Методы балансировки

    Пусть мы создали несколько серверов (любого назначения - http, база данных и т.п.), каждый из которых может обрабатывать запросы. Перед
    нами встает задача - как распределить между ними работу, как узнать, на какой
    сервер отправлять запрос? Возможны два основных способа распределения запросов.

    • Балансирующий узел . В этом случае клиент шлет запрос на один
      фиксированный, известный ему сервер, а тот уже перенаправляет запрос на один из
      рабочих серверов. Типичный пример - сайт с одним frontend и несколькими
      backend-серверами, на которые проксируются запросы. Однако «клиент» может
      находиться и внутри нашей системы - например, скрипт может слать запрос к
      прокси-серверу базы данных, который передаст запрос одному из серверов СУБД.
      Сам балансирующий узел может работать как на отдельном сервере, так и на одном
      из рабочих серверов.

      Преимущества этого подхода в том,
      что клиенту ничего не надо знать о внутреннем устройстве системы - о количестве
      серверов, об их адресах и особенностях - всю эту информацию знает только
      балансировщик. Однако недостаток в том, что балансирующий узел является единой
      точкой отказа системы - если он выйдет из строя, вся система окажется
      неработоспособна. Кроме того, при большой нагрузке балансировщик может просто перестать
      справляться со своей работой, поэтому такой подход применим не всегда.

    • Балансировка на стороне клиента . Если мы хотим избежать
      единой точки отказа, существует альтернативный вариант - поручить выбор сервера
      самому клиенту. В этом случае клиент должен знать о внутреннем устройстве нашей
      системы, чтобы уметь правильно выбирать, к какому серверу обращаться.
      Несомненным плюсом является отсутствие точки отказа - при отказе одного из
      серверов клиент сможет обратиться к другим. Однако платой за это является
      усложнение логики клиента и меньшая гибкость балансировки.


    Разумеется, существуют и комбинации этих подходов. Например,
    такой известный способ распределения нагрузки, как DNS-балансировка, основан на
    том, что при определении IP-адреса сайта клиенту выдается
    адрес одного из нескольких одинаковых серверов. Таким образом, DNS выступает в
    роли балансирующего узла, от которого клиент получает «распределение». Однако
    сама структура DNS-серверов предполагает отсутствие точки отказа за счет
    дублирования - то есть сочетаются достоинства двух подходов. Конечно, у такого
    способа балансировки есть и минусы - например, такую систему сложно динамически
    перестраивать.

    Работа с сайтом обычно не ограничивается одним запросом.
    Поэтому при проектировании важно понять, могут ли последовательные запросы
    клиента быть корректно обработаны разными серверами, или клиент должен быть
    привязан к одному серверу на время работы с сайтом. Это особенно важно, если на
    сайте сохраняется временная информация о сессии работы пользователя (в этом
    случае тоже возможно свободное распределение - однако тогда необходимо хранить
    сессии в общем для всех серверов хранилище). «Привязать» посетителя к
    конкретному серверу можно по его IP-адресу (который, однако, может меняться),
    или по cookie (в которую заранее записан идентификатор сервера), или даже
    просто перенаправив его на нужный домен.

    С другой стороны, вычислительные сервера могут быть и не равноправными.
    В некоторых случаях выгодно поступить наоборот, выделить отдельный сервер для
    обработки запросов какого-то одного типа - и получить вертикальное разделение
    функций. Тогда клиент или балансирующий узел будут выбирать сервер в
    зависимости от типа поступившего запроса. Такой подход позволяет отделить
    важные (или наоборот, не критичные, но тяжелые) запросы от остальных.

    Распределение данных

    Мы научились распределять вычисления, поэтому большая
    посещаемость для нас не проблема. Однако объемы данных продолжают расти,
    хранить и обрабатывать их становится все сложнее - а значит, пора строить
    распределенное хранилище данных. В этом случае у нас уже не будет одного или
    нескольких серверов, содержащих полную копию базы данных. Вместо этого, данные
    будут распределены по разным серверам. Какие возможны схемы распределения?

    • Вертикальное распределение (vertical partitioning) - в простейшем случае
      представляет собой вынесение отдельных таблиц базы данных на другой сервер. При
      этом нам потребуется изменить скрипты, чтобы обращаться к разным серверам за
      разными данными. В пределе мы можем хранить каждую таблицу на отдельном сервере
      (хотя на практике это вряд ли будет выгодно). Очевидно, что при таком
      распределении мы теряем возможность делать SQL-запросы, объединяющие данные из
      двух таблиц, находящихся на разных серверах. При необходимости можно реализовать
      логику объединения в приложении, но это будет не столь эффективно, как в СУБД.
      Поэтому при разбиении базы данных нужно проанализировать связи между таблицами,
      чтобы разносить максимально независимые таблицы.

      Более сложный случай
      вертикального распределения базы - это декомпозиция одной таблицы, когда часть
      ее столбцов оказывается на одном сервере, а часть - на другом. Такой прием
      встречается реже, но он может использоваться, например, для отделения маленьких
      и часто обновляемых данных от большого объема редко используемых.

    • Горизонтальное распределение (horizontal partitioning) - заключается в
      распределении данных одной таблицы по нескольким серверам. Фактически, на
      каждом сервере создается таблица такой же структуры, и в ней хранится
      определенная порция данных. Распределять данные по серверам можно по разным
      критериям: по диапазону (записи с id < 100000 идут на сервер А, остальные - на сервер Б), по списку значений (записи типа «ЗАО» и «ОАО» сохраняем на сервер
      А, остальные - на сервер Б) или по значению хэш-функции от некоторого поля
      записи. Горизонтальное разбиение данных позволяет хранить неограниченное
      количество записей, однако усложняет выборку. Наиболее эффективно можно выбирать
      записи только когда известно, на каком сервере они хранятся.

    Для выбора правильной схемы распределения данных необходимо
    внимательно проанализировать структуру базы. Существующие таблицы (и, возможно,
    отдельные поля) можно классифицировать по частоте доступа к записям, по частоте
    обновления и по взаимосвязям (необходимости делать выборки из нескольких
    таблиц).

    Как упоминалось выше, кроме базы данных сайту часто требуется
    хранилище для бинарных файлов. Распределенные системы хранения файлов
    (фактически, файловые системы) можно разделить на два класса.

    • Работающие на уровне операционной системы . При этом для
      приложения работа с файлами в такой системе не отличается от обычной работы с
      файлами. Обмен информацией между серверами берет на себя операционная система.
      В качестве примеров таких файловых систем можно привести давно известное
      семейство NFS или менее известную, но более современную систему Lustre.
    • Реализованные на уровне приложения распределенные
      хранилища подразумевают, что работу по обмену информацией производит само
      приложение. Обычно функции работы с хранилищем для удобства вынесены в
      отдельную библиотеку. Один из ярких примеров такого хранилища - MogileFS, разработанная
      создателями LiveJournal. Другой распространенный пример - использование
      протокола WebDAV и поддерживающего его хранилища.

    Надо отметить, что распределение данных решает не только
    вопрос хранения, но и частично вопрос распределения нагрузки - на каждом
    сервере становится меньше записей, и потому обрабатываются они быстрее.
    Сочетание методов распределения вычислений и данных позволяет построить
    потенциально неограниченно-масштабируемую архитектуру, способную работать с
    любым количеством данных и любыми нагрузками.

    Выводы

    Подводя итог сказанному, сформулируем выводы в виде кратких тезисов.

    • Две основные (и связанные между собой) задачи масштабирования - это распределение вычислений и распределение данных
    • Типичная архитектура сайта подразумевает разделение ролей и
      включает frontend, backend, базу данных и иногда хранилище файлов
    • При небольших объемах данных и больших нагрузках применяют
      зеркалирование базы данных - синхронную или асинхронную репликацию
    • При больших объемах данных необходимо распределить базу данных - разделить
      ее вертикально или горизонтально
    • Бинарные файлы хранятся в распределенных файловых системах
      (реализованных на уровне ОС или в приложении)
    • Балансировка (распределение запросов) может быть равномерная или
      с разделением по функционалу; с балансирующим узлом, либо на стороне клиента
    • Правильное сочетание методов позволит держать любые нагрузки;)

    Ссылки

    Продолжить изучение этой темы можно на интересных англоязычных сайтах и блогах.