Entry tags:
А гентушники у меня во френдах есть :)?
Требуется помощь зала :) На собеседовании задали вот такие вопросы, даже не знаю, что им и ответить по-серьезному:
1. Какие линуксовые ядерные патчи вы бы посоветовали для высоконагруженного Веб-сервера?
2. Как бы вы организовали контроль версий веб-приложений на Gentoo/PHP для кластера из 500+ узлов, при условии, что на них устанавливается один и тот же код. Как бы вы организавали обновление ОС в таких условиях - локальная или удаленная сборка, перезагрузка узлов которые уже используются в продакшене. Как бы вы спланировали обновления PHP в таких условиях? Объясните ваш выбор.
3. Предоставьте дизайн системы, которая бы позволяла на основе Apache access.log сделать обзор, какие страницы были посещены с определенного IP адреса. Система должна маштабироваться для 500+ узлового веб-кластера. Предоставьте ваши конфигурационные файлы/скрипты и объясните ваше решение и насколько оно маштабируемо.
4. Предоставьте скрипт бекапа базы MySQL, без ее остановки. Размер данных 100+ Гб и в нее постоянно ведется запись, так что приостановка соединений/записи даже на 0.1сек невозможна.
5. Предоставьте скрипт, который изменяет таблицу роутинга таким образом, что весь исходящий трафик с адреса 192.168.10.15 уходит через гейт 192.168.10.254, а весь остальной - через 10.0.0.254.
6. Как бы вы организовали устойчивый к падениям load balancer, способный обрабатывать поток в 500-1000Mbit пакетов SYN/ACK/FIN. Серверы распологаются в разных подсетях. Используйте OpenSource решения. Объясните, насколько маштабируемо такое решение.
1. Какие линуксовые ядерные патчи вы бы посоветовали для высоконагруженного Веб-сервера?
2. Как бы вы организовали контроль версий веб-приложений на Gentoo/PHP для кластера из 500+ узлов, при условии, что на них устанавливается один и тот же код. Как бы вы организавали обновление ОС в таких условиях - локальная или удаленная сборка, перезагрузка узлов которые уже используются в продакшене. Как бы вы спланировали обновления PHP в таких условиях? Объясните ваш выбор.
3. Предоставьте дизайн системы, которая бы позволяла на основе Apache access.log сделать обзор, какие страницы были посещены с определенного IP адреса. Система должна маштабироваться для 500+ узлового веб-кластера. Предоставьте ваши конфигурационные файлы/скрипты и объясните ваше решение и насколько оно маштабируемо.
4. Предоставьте скрипт бекапа базы MySQL, без ее остановки. Размер данных 100+ Гб и в нее постоянно ведется запись, так что приостановка соединений/записи даже на 0.1сек невозможна.
5. Предоставьте скрипт, который изменяет таблицу роутинга таким образом, что весь исходящий трафик с адреса 192.168.10.15 уходит через гейт 192.168.10.254, а весь остальной - через 10.0.0.254.
6. Как бы вы организовали устойчивый к падениям load balancer, способный обрабатывать поток в 500-1000Mbit пакетов SYN/ACK/FIN. Серверы распологаются в разных подсетях. Используйте OpenSource решения. Объясните, насколько маштабируемо такое решение.
no subject
1. Я бы посоветовал пользоваться готовыми ядрами, которые собирают специализирующиеся на этом люди.
2. rsync? сборка однозначно локальная, какой смысл собирать одно и то же на 500 одинаковых машин.
5 я еще как-то смогу написать, почитав мануал от ip route, а остальное - совсем ПИЧАЛЬ.
no subject
1. Ну, надо знать, где их искать, эти ядра.
2. Ну, rsync первым в голову приходит, но может есть более маштабные решения - все же, синхронизировать 500+ машин - это долго.
Вот, тебя тоже не возьмут :)
no subject
По идее, для этого есть pssh, там и prsync в комплекте.
no subject
no subject
no subject
no subject
ты их сразу в хуй послал, или был убийственно вежлив?
no subject
no subject
no subject
no subject
no subject
Наливай да пейБери и бекапь, как хочешь.5-й - типичный, source routing. Думаю, с помощью команды ip делается тоже легко(?).
С load-balancer непонятно - из чего его собирать.
no subject
no subject
RedHat cluster suite заточен под RH, а High Availability Linux какой-то не очень живой.
no subject
no subject
no subject
1) Лучше всего НЕ использовать патчи в случае отсутствия явной необходимости это делать. Особенно это касается свежих ядер - в старые по понятным причинам (ентерпрайз) бекпортят кучу вкусностей из новых.
2) Ну логично что удаленная только. По поводу PHP могу посоветовать никогда не обновлять major (5.2 -> 5.3) без длительного общения с разрабами и q&a по поводу этого.
3) Ну я бы на перле сделал локальные задачки которые раз в минуту (или в режиме тейла) читают аксес лог и сливают выжимки (или даже раудата) в главный мискл. Главный мискл и отвечает за выборки. Я бы рекомендовал еще сделать мастер-слейв чтобы не перегружать мастер запросами и не блокировать запись.
4) Не бывает. Совсем. Никогда. Точнее - бывает когда есть zfs (фря, солярис). Снепшоты в лвм - говно и х.ета. Если все в иннодб - в принципе катит percona XtraBackup, скрипт в комплекте. Еще можно предложить построить слейв, бекапить его и иногда сверять с мастером через mk-query-checksum.
5) man source routing
6) Я бы наверное предложил LVS. Но меня смущают разные сети. В таком случае хапрокси или тот же варниш (речь же о tcp). Поток пакетов суть неграмотно, флоу примерно похуй в отличии от количества в секунду. И да, фря флоу в 700 мбит на среднем железе проксировала, думаю и линух да. Так как речь явно о tcp - можно юзать haproxy, например, но потеряется сорус. Для устойсивости к падениям - heartbit. Для масштабирования - группа балансеров и Л2 балансер перед ней, например.
Как-то так
no subject
no subject
5. ip rule add from 192.168.10.15 table 10 priority 5
ip route add default via 192.168.10.254 table 10
ip route add default via 10.0.0.254
6. freebsd с netgraph
no subject
no subject
no subject
А по 1-3 пунктам, с точки зрения Генту не можешь чего-нить подсказать :)? Пакетный менеджер у вас есть?
no subject
2. опыта на клайстерах у меня нет, но можно что-нибудь найти на проприитарном рынке для такого решения.
3. опять же из своего опыта ничего посоветовать не могу. Вообще вопросы из разряда:
-вы работали в хайлоаде с 500+ серверами ?
-нет.
-вопросов больше не имею.
а если серьезно, то это задача системного архитектора - реализовать маштабируемый программный продукт. Если админ будет делать на коленке, то можно тупо пройтись удаленно по ссш грепом аля ssh user@host -p pass "grep page.html /var/log/apache/access.log | grep ip | wc -l" просуммировав все эти значения мы получим что хотим. Может есть и готовые решения, но если ты в этом не работал, то врядли знаешь об этом.
пакетный менеджер в генту: emerge
no subject
Готовые решения почти все коммерческие, да. Splunk вот тчо-то подобное делает, но для логов вообще, без анализа данных. Хотя, можно плагин написать.
А emerge не только для сборки используется? Т.е. можно получить какой-то архив/пакет, которые раскидать по машинам и поставить? Или сказать всем машинам обновить его из репозитария?
no subject
Алсо, если машины одинаковые то можно собрать бинарник, который потом можно раскидать по сети. Для оных целей существует пакетик quickpkg и нужные переменные для make.conf. Чуть более подробный процесс описания видел, например тут. Там же и описывается процесс забирания готового бинарника емерджем.
no subject
no subject
no subject
no subject
По остальному совсем печаль. Хайлоад видел только издали, но могу спросить конь-петентных товарищей.
no subject
no subject
Могу на пост не отвечать. ля-ля-ля-лляя!
гы.
no subject
1. Никакие. Стабильность вперед скорости. лучше серверов добавить, чем патчами баловаться.
2. елементарно. сделать свой, локальный ебилд, выделить тестовую зону и потом на остальные уже заливать бинарники. в общем, в манах на портедж расписано.
3. еще один велосипед. логи в базу и делай что хошь. или логи на одну машину и запарсистесь. в общем, надо смотреть
4. идиоты. а так - поднимает слейв сервер и его уже мучаем бекапами. но идиоты, да, в мускл 100 гигов пихать, а если он еще и один ...
5. лень читать маны по ip
6. всего гигабит? судя по вышеприведенным запросам, это вебовская херня. значит тупо ставим на фрот чего-нить быстро кеширующее. типа nginx и обвязываем скриптами мониторинга