А кто сейчас где в Европе размещается ?
Что посоветуете, какие ДЦ приличные по качеству и обслуживанию ?
Мы приличные и хорошие, в Норвегии, но чуть дороже других (Германия, Голландия), хотя готовы посоперничать в плане стабильности с любыми. Русскоязычный саппорт. Знаю, что звучит нескромно, но говорю как есть.
Если интересуют подробности, пишите в личку.
Спасибо.
Но далековато вы от нас...
Чехия,отличный вариант. Полет нормальный.
Нет такого ДЦ как Чехия.
Если есть чем помочь, сообщайте хотя бы название, если УРЛ трудно напечатать ))
Накопать список ДЦ - дело получаса. Меня же интересуют именно живые мнения, ДЦ-ДЦу рознь, однако.
Тут вы правы) сайт Atlex.ru, там все есть, спросите Павла Черноброва.
Мы в Будапеште размещаемся, ДЦ Dataplex.
И с Вами совсем рядом .
Если интересуют цены на коло или аренду обращайтесь.
Самый отличный ДЦ это http://www.softlayer.com/ , недавно у него появился ДЦ в Амстердаме.
Конечно он и дорогой, но он того стоит.
Так же мне еще нравится http://www.worldstream.nl/ , у них часто проходят акции, по которым можно взять хороший сервер по привлекательной цене.
Mik-, нет никаких проблем, трафик ходит через AMS-IX без потерь и связность на высоком уровне. У нас далеко не сотня серверов там, мы бы заметили. К тому же есть прямой пиринг в 10 Гбит / с на MSK-IX, москвичи очень довольны, когда видят низкий пинг
А вообще связность EvoSwitch не ограничивается только амстердамской точкой обмена, есть связность со всеми крупными точками обмена. Если у Вас есть претензии к предоставляемому Вам качеству трафика - Дата Центр всегда решит вопрос при помощи маршрутизации.
За каждый винтик также платить не нужно. Да, абсолютной шары там нет, но крупному клиенту всегда можно сделать бонус в виде того, что часть услуг не учитывать. Дата Центр высокого уровня, качественный, размещаются даже банки.
Сергей.
Если внимательно читать топик, то я его создавал про ДЦ, а не про реселлеров у которых "шкафы уже в процессе".
А также я просил посоветовать по качеству и обслуживанию, а не по даром никому не нужным мегабитам и мегаватам.
Ну что за мода тупо рекламироваться, даже не прочитав топик ?
Вы думаете, я сам не в силах прочитать цифры на сайтах ?
Интересует как раз то, что не прочитаешь нигде, именно внутренний опыт - как часто падает, как быстро поднимают, как поддержка отрабатывает все жизненные ситуации хостинг-провайдера.
Что можно посоветовать и не будет стыдно за рекомендацию.
Внутренний опыт - с мая не падал. Один раз была проблема с одним из маршрутизаторов, в результате которой на протяжении трех часов серверы с некоторых подсетей становились недоступны на короткий! промежуток времени. За это время успели привезти, настроить и заменить маршрутизатор.
Редко случаются проблемы в конкретных шкафах. К примеру однажды в нашем шкафу начал барахлить свитч, его заменили на новый в течении 30 минут (ушло время на диагностирование проблемы).
В случае, если сервер подвергается ДДОС-атаке, при достижении порога в 30к пакетов - адрес автоматически блекхолится, что позволяет остальным абонентам не замечать подобных проблем.
В целом же все очень резервировано. Ядро Дата Центра представляет собой спагетти из сотен десятигигабитных оптических линков, в шкафу видел оборудование минимум 20 операторов! , жаль фотографировать запрещено, потому показать не могу всей картины, но фотографии на сайте Дата Центра какое-то представление Вам помогут получить.
Без SLA там делать нечего - отвечать на тикеты могут долго, но если есть SLA - время ответа в пределах 5-15 минут. Саппорт нужен редко, только в случае проблемы с железом, для всего остального - есть система управления сервером удаленно, нажатием одной кнопки можно загрузить Rescue, перезагрузить сервер либо отключить сервер по питанию.
Иногда конечно может сбоить, для определенных серверов (если проблема на самом сервере), например сегодня была такая проблема, когда переустанавливали сервер под клиента, то нас не слушалась панель:
Your server SKRS108 did not initiate rescue mode boot / an
re-installation due to incorrect boot order.
As I have fixed this, the rescue mode boot /re-installation of your
server SKRS108 should work now.
Оперативно все было разрешено инженером.
В случае, если сервер падает и поднять удаленно не удается - инженер идет в серверную и решает проблему. KVM, как правило, стационарный отсутствует (можно запросить на сутки, но не на постоянно), в виду особенности шкафов (обсуждал эту проблему с менеджментом, по их словам уже строят КВМ-сеть), но можно ставить серверы с IPMI, хотя это значительно дороже + расходуется IP-адрес, адреса нужно экономить. Мы не ставим серверы с IPMI.
Rescue хватает для многого, наши администраторы даже ОС c RAID1 в Rescue сетапят. Так что КВМ практически не нужен, а когда без него не обойтись - намного проще инженера попросить, который сам решит вопрос и гораздо быстрее диагностирует проблему.
Если проблема железная, то железо меняется также очень быстро, вплоть до замены целого сервера (если сервер в лизинге само собой, а не Ваш собственный). В случае, если Ваш собственный - Remoot Hands, дорого. Свои серверы ставить не выгодно и не за чем (успеют устареть до того, как окупятся). Намного дешевле заказать у поставщика нужные конфигурации под Ваши задачи в лизинг.
По шкафам, если хотите свой шкаф, можно взять оптическое 10 Гбит / с включение, оптический порт выдается с минимум 4 Гбит / с включением в Интернет. Канал можно шарить между всеми Вашими шкафами, даже если они в разных сегментах Дата Центра, обеспечивается интерконнект без проблем. Расширять канал можно неограниченно, 100 Гбит / с - запросто можно взять. При этом и цена приятнее уже
Минус - дорогостоящее питание, для 40 серверов Е3-1230 Вам нужен шкаф минимум на 20 Ампер.
В целом Дата Центр очень защищен, можно арендовать даже свой модуль, что мы и хотим чуть позднее сделать для наших клиентов. Площадке доверяют даже банки, а это говорит о многом.
Советую съездить на экскурсию в общем
Сергей, Михаил строг, но прав.
Mik-, если на Вас ожидаются атаки по 400 млн. пакетов, то такой проект должен располагаться не на одном сервере, а иметь распределенное решение.
Свыше 30к пакетов идет блокировка - это для одного ip-адреса, и в случае, если это начинает оказывать негативное влияние на сетевое оборудование и других абонентов, конечно система такой ай пи адрес блекхолит, это не "гадюшник", а банальное уважение к остальным клиентам, которые не должны ощущать проблем того клиента, на которого упал DDOS.
P.S. Из сервера патчкорд никто не выдирает, да и это не всегда остановит атаку, так как она будет доходить до бордеров. На нас недавно падал DDOS в 20 Гбит / с и миллионы пакетов, помог только блекхол. Отфильтровать такое без распределенного решения нереально. Дешевле переждать.
Сергей, видимо Вы меня неверно поняли.
То, что я хотел сказать - атака в 30к пакетов в секунду это даже атакой назвать нельзя, блокируется без метода "лечим простуду гильотиной" - от такой блокировки страдает конечный клиент, на которого идет атака, и страдать от потока в 30к в адекватных решениях соседние клиенты не должны.
Если у датацентра есть проблемы при 30к пакетов в секунду с каналами либо оборудованием - это заставляет задуматься, здесь явно что-то не так.
В грамотных решениях, когда клиент заказывает услуги вида защиты от ддосов, все подобные потоки мусорного трафика фильтруются распределенными системами так, что подобный трафик не только не вредит этому конкретному клиенту, но и не затрагивает остальных.
А блокировка с blackhole это как лечить насморк гильотиной, при том что такой необходимости по сути нет.
И если у Evoswitch срабатывает blackhole, фактически это означает что им наплевать на своих клиентов.
Вместо помощи клиент получает блок.
Русская версия Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)