Помощь - Поиск - Пользователи - Календарь
Полная версия: присматриваю варианты размещения 10-60 серверов
Онлайн-форум hostobzor.ru > Архив (темы до 1.06.2015). Только для чтения. > Хост-Базар > Куплю > Серверы
Страницы: 1, 2
udofun
Мой текущий ДЦ почти заполнился,
Ищу варианты размещения серверов в ближайшем будующем.

Какие сейчас ДЦ на рынке есть?
За время работы перепробовал: М9, СТЭК, Курчатовский (агава, скаймедиа, рбк), Мастерхост (восточная, остаповский) и другие.

Желательно аренда стоек.
возможность поставить свое оборудование КВМ, switch-и.
Если стойка 42U то значит там должно быть место для 40 U как минимум.
(Стойки 42U в которые 20U не влазит не рассматриваются вобще.)

Питание на стойку надо 30-40А

Также рассмотрю вариант размещения оборудования с оплатой за единицу оборудования (как правило 1U сервера).

Канал должен быть нормальным (1Гб на стойку-две хватает).
Заморочки с соотношениями не нужны.
Территориально это должно быть в Москве или области.

Ком. предложения можно сюда либо на admin@2x4.ru
Готов обсуждать.
Урсу Юрий
Я Вам телехауз от Каравана посоветую. Правда цены там покусачей, чем в том же М9 или Стэке, но зато тамошних проблем нет, ни с местами, ни с IP и даже решение на доп подключения есть, чтобы во время дДоса в обход подключаться...
2175
Цитата(Урсу Юрий @ 23.08.2008, 21:56) *

Я Вам телехауз от Каравана посоветую. Правда цены там покусачей, чем в том же М9 или Стэке, но зато тамошних проблем нет, ни с местами, ни с IP и даже решение на доп подключения есть, чтобы во время дДоса в обход подключаться...

Насколько Ваши админы способны управлять ночным "тыпым" саппортом ? Если способны и не нужен физическмй доступ ночью - велком в личку ( подключить KVM саппорт способен 24 часа в сутки), 30 A можем - 50 уже под вопросом ( если думать об УПС)
Dmitry Gushin
Отписал в почту.
udofun
Телехаусу запрос послал, но пока ответа нет.

Dmitry Gushin,
спасибо за предложение, ответил.
support_host
Цитата(udofun @ 23.08.2008, 20:51) *

Мой текущий ДЦ почти заполнился,
Ищу варианты размещения серверов в ближайшем будующем.

Какие сейчас ДЦ на рынке есть?
За время работы перепробовал: М9, СТЭК, Курчатовский (агава, скаймедиа, рбк), Мастерхост (восточная, остаповский) и другие.

Желательно аренда стоек.
возможность поставить свое оборудование КВМ, switch-и.
Если стойка 42U то значит там должно быть место для 40 U как минимум.
(Стойки 42U в которые 20U не влазит не рассматриваются вобще.)

Питание на стойку надо 30-40А

Также рассмотрю вариант размещения оборудования с оплатой за единицу оборудования (как правило 1U сервера).

Канал должен быть нормальным (1Гб на стойку-две хватает).
Заморочки с соотношениями не нужны.
Территориально это должно быть в Москве или области.

Ком. предложения можно сюда либо на admin@2x4.ru
Готов обсуждать.


Меня интересует ровно то же самое. Предложения в личку пожалуйста!
Dmitry Gushin
Цитата(support_host @ 25.08.2008, 16:00) *

Меня интересует ровно то же самое. Предложения в личку пожалуйста!


Отписал в личку.
udofun
Между всем прочим поясню чего бы хотелось, так сказать чего "душа желает".

Всем известно что рынок размещения у нас в РФ, в МСК в частности, очень сильно вздут, перегрет и покарежен.

Ибо нет нормально места куда можно было рости на преждних и более выгодных условиях.

Получается совсем на оборот - хочешь разместить мало.
Платишь тубрики за килограмм.
Хочешь разместить больше - платишь большее тубриков за килограмм.
Правда жизни?

Еще одна правда жизни: каждый следующий ДЦ становится еще дороже, при этом качество обслуживания становится все хуже и хуже.

Я понимаю что цены в Москве на недвижимость растут и т.д.
Но что мешает взять нормальное больше помещение под москвой рядом с ТЭЦ и сделать ДЦ на 10000 стоек... вот радости бы было.
С нормальным суппортом, с нормальным доступом, с нормальной гермозоной без пыли, с нормальным питанием и кафешкой рядом.
Не у кого случаем нет копеечки проспонсировать меня?

Получается банальня фигня что брать за рубежом сервера дешевле чем у нас их размещать. При том что стоимость электричества там выше чем у нас! Все бы хорошо, даже можно выучить все иностранные языки, но чем мы уже в ДЦ-строительстве?

Вспоминая НАШУ-РАШУ до сих пор приходят мысли: а в москве до Сих пор трафик делят на НАШ и на импортный smile.gif

Вобщем все что выше навеяно поисковыми мыслями и настальгией по хорошему будующему....


Скажу что сейчас было бы очень вкусно иметь стойки с каналом "хотябы" 100ка по цене рублей к30.

По 40, 50 уже как-то не совсем то, комфорта нет, приходится ужиматся вместо того чтобы брать "больше".

Как взлянешь на рынок - понимаешь что кто-то хочет 100, кто-то хочет 70-80 за тоже самое за что раньше просили 20.

Ладно бы там было что-то действительно золотое... а то все то же, русское.
Бесперебойное питание первой категории с батарейками и мегаватными дизельгенераторами которые откажут в ближайшую неделю раза два.... Прям совок-совком.
Грустно товарищи.
Это не рынок, это бардак.

p.s. где тот самый человек который сделает счастье?
Dmitry Gushin
udofun, увы, предложенный Вами вариант с ДЦ в области реализовать очень сложно именно из-за проблем с финансированием (что Вы сами и предположили). Все просто, построить, подтянуть оптику, обслуживать первое время (пока не выйдет на окупаемость) - это стоит денюжку с внушительным кол-вом нулей. Увы, обладающие такими средстваим инвесторы предпочитают вкладываться в другие (не телеком) проекты с меньшим периодом оборачиваемости капитала. Все просто, хоть и печально, - рынок дает слишком много "низкотехнологичных", но более прибыльных альтернатив инвестирования.
udofun
Хм,
надо бы начать искать миллионера, фанат-а IT и телеком smile.gif

какой расчетный период окупаемости проекта под названием "датацентр" ?

duken
Цитата(udofun @ 26.08.2008, 13:48) *

Хм,
надо бы начать искать миллионера, фанат-а IT и телеком smile.gif

Скорее миллиардера smile.gif
Anatoly N Krasnov
Цитата
какой расчетный период окупаемости проекта под названием "датацентр" ?

В одной из статей (возможно даже на ХО) была указана цифра ~3года.
udofun
Можно я еще поглумлусь над российским рынком датацентров?

Я, как клиент практически всех датаентров г. Москвы (оговорюсь: где-то уже бывший клиент)
имею в голове как мне кажется довольно четкое представление того что хочет клиент ДЦ
(PS клиент ДЦ - человек который покупает место в ДЦ, стойки, каналы).

И так поехали.

Очень радуют решения в духе стойки 42U в духе шкафчиков куда длинные сервера просто не влазят.
Например у длинных супермикро приходится откручивать уши с переди а провод питания закручивать так чтобы он не мешал задней дверце.

При этом остается довольно больше пространство с переди (1см) и сзади (2см). Прям просто идеальное для качественного охлаждения всей стойки серверов которые там живут на "тех же условиях".

Еще ляп. Размеры стойки
Очень люблю стойки 42U куда физически можно поставить только 20 серверов по 1U, по 25 если сильно повезет. Остальное просто не влезет из за конструктивных особенностей. Сложно представить?
И не такое бывает! mellow.gif

Факты:
8 серверов supermicro 2*Xeon Dual Core/Quad Core в обысном состоянии потребляют 8-10А (показания PDU APC, амперметров и т.д.) Про Twin решения я не говорю (для не посвященных это когда 2 компа 2*quad Xeon в кодном корпусе)

Очень люблю датацентры которые выделяют на стойку 16А (скажем 3-4кВт, кто-то даже 5!)
Итого даже школьнику из 3 его класса становится понятно что в данную стойку можно поставить
10 ок серверов "с большим страхом и риском" unsure.gif . И не дай бог их нагрузить чем-нибудь mad.gif
Однако большие дядки из ДЦ этого почему-то не понимают.
В итоге получается - "у меня для вас подарок, но я вам его не отдам (с) почтальен Печкин".

Т.е. получаем стойку по цене стойки на десяток серверов.
"Русский" бизнес? плохой какой-то бизнес.
Приходит на ум мысль - а может колокэйшн, но и там отдельных приколов на целую статью.

Из той же серии когда питания чуть больше, но чего-то не хватает... Чего??? Розеток конечно-же.
Причем доставить нельзя wink.gif Электричество по воздуху. Очень позволяет задуматься.

Господа стоители ДЦ - заводите на стойку как минимум 3 фазы по 16 ампер, а лучше по 20 ампер!

Поехали далее. Электропитание.
Навеяно вспоминаниями о ММТС-9, Рабмлер-Телеком, Датадом, СТЭК и списко можно продолжить.
1ая категория, батарейки, дизели... блаблабла... москва тогда тоже без света осталась smile.gif

Есть такая наука - статистика. Так вот она говорит что в москве нет нормально питания. Может все таки будет когда-то sad.gif В каждом новом "самой лучшем" ДЦ были сбои электропитания.
Причем сбои то пофиг. ДЦ должен быть защищен от этого. А в России это значит - не защищен.
Во всех ДЦ были сбои и везде это касалось клиентов (либо части клиентов). Опять грустно.

Охлаждение. Вобще виликая тема.
Тополиный пух жара июль... О тополином пуху чуть позже. Пока о жаре.
Общее впечатление: в ДЦ температура нормальная только зимой и при открытой форточке.
Я понимаю что кондиционеры промышленные, серьездные, дорогие. Но с какого нафиг они выходят из строя и месяц их никто не может починить? Или еще прикол: они стоят в коридоре и их не кому подключить. smile.gif Или они не справляются... кто расчтывал мощьность охлаждения?
Еще любимый прикол, кондиционеры привезли, нашли того кто их поставит, выяснилось что электричества не хватает smile.gif))
Только у нас в Челябинске сервера для российских датацентров должны работать при температуре от +30 до +90С
а то не дай бог злой хозяин ДЦ пойдет их отключать чтобы не перегрелись (скромно не буду показывать пальцем, стыдно господа).
Жесткие диски при этом также должны работать при температуре от 50 до 70С, только почему-то Seagate,WD,Maxtor,Hitach,Samsung об этом не знают.

Вспоминаю кафедру ОТП: "в военное время значения синсуа может достигать 2ух".

Пыль
Гермозона должна быть, или фильтры для пыли должны быть. Ну хоть что-нибудь.
Ну надоело выковыривать тополиных пух из радиатора процессоров.
Про мелкую пыль вобще молчу, из за нее забиваются вертеляторы которые начинают дребежжать и от этого вылетают жесткие диски. Факт. Не верите - пишите, покажу видео.

Безопасность.
Особенно люблю ДЦ в котором любой желающий может сделать любое дейсвие. 10Гб оптику на бантик завязать например. Очень красивые бантики получаются видимо. Еще хорошо когда можно поразглядывать модели чужих дисков путем из вынимания из работающего сервера..
Чучмекам которые там чего-нибудь налаживают это так интересно. То что они не понимают что делают - это другой вопрос. Им просто итересно.

Безопасность и контроль доступа должна быть.


Пожаротушение
Господа, сядьте.
Сели?
Готов вам представить новую супер современную водяную систему пожаротушения серверов в датацентре smile.gif Для тех кто в такне повторю - водяную. На потолке датчики и трубы из которых водя если чего потечет.
"...Правильно Вовочка, чтобы пыль с серверов смысть. С работающих."



p.s. Ушел искать нормальный датацентр.
p.p.s. простите за очепятки.

(с) www.2x4.ru
ссылка обязательна.
support_host
udofun молодчик. laugh.gif
ЗЫ. Пару дней назад один господин на полном серьезе предложил мне в аренду стойку, всего то за 200 000 руб. в месяц. Это стоимость без инет канала. Ну что тут скажешь? blink.gif Я хотел даже спросить его, может стойка сделана из золота с бриллиантовыми вставками? ohmy.gif ...
Dmitry Gushin
udofun,
По шкафам согласен. Именно потому мы размещаем оборудование в открытых стойках - и охлаждение эффективней, и с монтажем проще. Глубину стоек писал - 1 метр. Но если клиент берет стойку, можем сделать и глубже - технология позволяет.

В целом, интересные наблюдения. Про водяное пожаротушение не слышал, но верю. Действительно сильно! С электричеством в Мск довольно туго. Потому и выделяют многие по капле. Но уверен, за отдельную плату дадут и больше. Если до сентября ДЦ не найдете, приезжайте в гости.

support_host, может просто Вас не хотели видеть среди клиентов? Цена и правда фантастическая, похожа на заградительную. Ответьте мне на ЛС, пожалуйста.
udofun
Хорошо, ждем сентября.
Приедем в гости.
MiksIr
К сожалению, хороший ДЦ невозможно построить из расчета 3 года окупаемости. Ибо он будет очень дорогой и такие же синенькие будут ныть везде, что дорого. Реальность - около 5 лет. А 5 лет - это для инвесторов во-первых долго, во-вторых - через 5 лет этот ДЦ никому не нужен будет - устареет все.
Энергетика, это полный П. Т.е. вариант то один - газ. Но с надежностью тут похуже получается, да и два источника уже не получишь - не строить же 2 газовые подстанции, да и все-равно труба одна. Кстати, вопрос к знатокам (так и не удалось нарыть) - тиер4 до какой точки подразумевает два пути энергетики? Подстанци то все -равно на одном проводе сидят ;)

менно потому мы размещаем оборудование в открытых стойках - и охлаждение эффективней, и с монтажем проще.
Зато с безопасностью кирдык ;)

оффтоп:
2x4 - это 2 дня в неделю по 4 часа? ж) А тарифы настолько секретны, что только по https с поломанным сертификатом? wink.gif
udofun
Цитата
2x4 - это 2 дня в неделю по 4 часа? ж) А тарифы настолько секретны, что только по https с поломанным сертификатом?

не совсем, это для значит "вход воспрещен" тем кто не может подтвердить сертификат и загрузить страницу с тарифами.
MiksIr
С совком нужно начинать бороться с себя... а там, глядишь, и ДЦ подтянутся.

PS: c датафортом работали?

А, не увидел, вы хотите стойку с анлим 100М за 30-ку... сори, вопросов нет больше wink.gif
Dmitry Gushin
MiksIr,
1) опять же, в силу ограниченности средств мы не строим 1 большой модуль, мы запускаем микро- модули. По 10-20 стоек в каждом. Клиенты, берущие менее 1 стойки в модуль не пускаются ни под каким предлогом, остальные - под присмотром (личным или через камеру - зависит от степени доверия). Думаю, этого достаточно в 99% случаев.

2) у Датафорта электричество неадекватно стоит.
udofun
Цитата
1) опять же, в силу ограниченности средств мы не строим 1 большой модуль, мы запускаем микро- модули. По 10-20 стоек в каждом. Клиенты, берущие менее 1 стойки в модуль не пускаются ни под каким предлогом, остальные - под присмотром (личным или через камеру - зависит от степени доверия). Думаю, этого достаточно в 99% случаев.

согласен.
разумеется камеры и видеонаблюдение должно быть всего пространства как минимум на пару суток.

Я задумываюсь уже о 10ке новых стоек в одном месте.
Но сейчас все еще приходится ютиться по разным датацентрам москвы... тут чуть чуть, там чуть чуть.


Чуть позже я опишу тут "чего хочет клиент от датацентра".
Постараюсь собрать в одном месте теперь "плюсы" всех датацентро с которыми пришлось работать.
NetRu
udofun, как раз могу познакомить с людьми, которые вынимают деньги из жилой недвижимости и хотят строить датацентры, т.к. слышали, что это сейчас выгодно. В Москве или в Питере. Вы сможете построить идеальный ДЦ и размещать там клиентов по оптимальной цене. Могу в качестве субподрядчика сделать вам и электричество, и охлаждение, и каналы. Но сразу же хочу заострить ваше внимание на том, что эти люди рассчитывают на выход в ноль через два года и не менее 30% в год. С другой стороны, таких людей становится все больше и больше, возможно, позже и пожелания будут скромнее, но не могу гадать.
Dmitry Gushin
NetRu, срок окупаемости в 2 года для ДЦ не реален вообще.
Цифр приводить не буду, раскидаю по пунктам.
1) покупка помещения
2) ремонт
3) организация системы газового пожаротушения
4) получение мощности
5) прокладка фидеров до ДЦ
6) резервирование электропитания (дизель или газовые генераторы)
7) UPS на время запуска дизелей
8) прокладка оптики до ДЦ
9) система кондиционирования и очистки воздуха
10) обслуживающий персонал.
11) мелочи (стойки/шкафы, камеры, системы ограничения доступа, и т.п.)

И если некоторые пункты размазываются эффектом масштаба, то многие роступ пропорционально, а то и обратно пропорционально. Я считал экономику больших ДЦ. По всему выходит, что если строить от 1 000 стоек, то меньше чем на 5 лет окупаемости рассчитывать не нужно. Правда, это было с учетом % по привлекаемым средствам, а не на партнерской основе.
NetRu
Дмитрий, я тоже не вижу как это может окупиться за 2 года, поэтому не участвую сам, а предлагаю udofinу. Если он увидит возможность, покажет ее и возьмется ее реализовать, то поспособствую этому к обоюдной выгоде.
udofun
Цитата
1) покупка помещения
2) ремонт
3) организация системы газового пожаротушения
4) получение мощности
5) прокладка фидеров до ДЦ
6) резервирование электропитания (дизель или газовые генераторы)
7) UPS на время запуска дизелей
8) прокладка оптики до ДЦ
9) система кондиционирования и очистки воздуха
10) обслуживающий персонал.
11) мелочи (стойки/шкафы, камеры, системы ограничения доступа, и т.п.)


Это все понятно, но есть несколько НО, причем некоторые из них дейсвительно НО и задача может быть намного более реальной если их учесть. Тем более что опыт многолетней работы с разными ДЦ это подтверждает. Факты подтверждают также.

Задача не сделать супер дешевый для клиентов Датацентр, задача сделать большой датацентр с возможностью его совершенствования и роста.
На западе полно таких, а вот у нас почему-то каждый для себя комнатку делает маленькую которая быстро заканчивается...

упрощенный пример:
1000 стоек по 36к могут делать около 1м? в мес.
это 24м? в 2 года. это вполне реальные реально,
т.к. за то же электричество платить надо по факту потребяемой мощьности (без учета подведения мощьности разумеется).


Я думаю нам с NetRu надо будет пообщатся более плотно.
Andrey Borodin
Цитата(udofun @ 27.08.2008, 15:43) *

упрощенный пример:
1000 стоек по 36к могут делать около 1м? в мес.
это 24м? в 2 года. это вполне реальные реально,

угу, действительно упрощенный...
... и все 1000 стоек будут распроданы в день открытия и будут постоянно оплачены в течение 2-х лет.
garry
Посмотрите http://apc.com/products/infrastruxure/index.cfm
там есть калькулятор, и много отчетов которые помогут вам понять экспуатационные затраты ДЦ.
имейте ввиду что там отражены далеко не все затраты.
udofun
Есть целые компании которые специализируются на этом.
http://www.datadom.ru/srv/

Вот пример красиво построенного датацентра вокруг которого было очень много шума по поводу того кому он достанется.
http://www.datadom.ru/trip/
Был, лично видел.

Вопрос, за сколько они сделают ДЦ на 1000 стоек?
(с потреблением скажем 40мА по 220 unsure.gif )

Как видно из картинок электропитание там сделано на все 100%, батарейки, дизельгенераторы.
И все это чудо в начале этого года в 2 часа ночи отключилось, причем не на 5 минут, а часов на 10-12, точно уже не помню.
Помню что после этого я от туда сьехал.

Статистика:
- в каждом ДЦ который я знаю было пропадание питания (переключение питания) хотябы раз в год.
где-то потому что суппорт не правильно среагировал, где-то просто электричество кончилось, батарейки сели, а дизельного топлива никто не залил в генератор.

- Электричество в Москве пропадает где-то с тойже регулярностью.

Еще Статистика:
- аптайм у меня на серверах в европе, малайзии, сша - более года.
- аптайм на серверах в РФ - до года везде.

"Тупой" вывод:
- зачем нужны батарейки
- зачем нужны дизельгенераторы
- зачем нужен газ

По статистике проблемы с питанием и так возникают.
Будет их больше или меньше вопрос. Как правило большая часть проблем с электричеством - это неверно просчитанные кабели, подвод. Да, батарейки при этом спасают бедных клиентов от проблем датацентра и его питанием, точнее помогают датацентру скрыть свои проблемы с питанием от клиентов.

Профессор:
- за изобретение "пять", а за экзамен "неуд" smile.gif


Я согласен что питание должно быть хорошим, но если присоседется сразу к нормальнму источнику питания то можно честно "сэкономить" на начальном этапе просто отказавшись от Батареек, Генераторов, Газа.

Приятная цена для клиента скроет это маленькое упущение. Кому сильно надо - припет свой UPS.

p.s. это так... немного критики. не судите строго.
duken
Цитата(udofun @ 27.08.2008, 18:25) *

Я согласен что питание должно быть хорошим, но если присоседется сразу к нормальнму источнику питания то можно честно "сэкономить" на начальном этапе просто отказавшись от Батареек, Генераторов, Газа.

Приятная цена для клиента скроет это маленькое упущение. Кому сильно надо - припет свой UPS.

p.s. это так... немного критики. не судите строго.

А не лучше сделать 3 зоны, естественно по разной цене:
1. без дизеля, без UPS, кондиционеры N+1
2. с дизелями N+1, UPS N+1, кондиционерами N+1
3. с дизелями 2N, UPS 2N, кондиционерами 2N, сетью 2N, т.е. к каждой стойке по две независимые линии питания и интернета. Питание так две линии до блоков питания, а вот с интернетом хз, тут наверное до стойки smile.gif
З.Ы. ну понятно, что ситемы пожаротушения везде должны быть laugh.gif
MiksIr
Вся проблема в том, что у нас почти нет умеющих строить хостинговые ЦОД-ы и почти нет умеющих их эксплуатировать. Отсюда детские ошибки и отказы.
Цитата(duken @ 27.08.2008, 17:48) *

А не лучше сделать 3 зоны, естественно по разной цене:
1. без дизеля, без UPS, кондиционеры N+1
2. с дизелями N+1, UPS N+1, кондиционерами N+1
3. с дизелями 2N, UPS 2N, кондиционерами 2N, сетью 2N, т.е. к каждой стойке по две независимые линии питания и интернета. Питание так две линии до блоков питания, а вот с интернетом хз, тут наверное до стойки :)
З.Ы. ну понятно, что ситемы пожаротушения везде должны быть :lol:

UPS 2N не делают и без упсов тоже не делают.
Только, понимаете... те, кто делают первый вариант задают резонный вопрос "а зачем нам вкладывать бабло в 3-й вариант, если на первом мы заработаем быстрее и больше?"... и нечего ответить, ибо большинство из тех, кто кричит "качества мне, качества" платить за него не готовы. Ибо есть нехватка места, а значит отсутствие конкуренции. Ибо есть желание побыстрее отбить деньги, так как хрен знает что будет через пять лет как в технологическом (а, посмотрите в какой Ж щас курчатов) так и в политическом плане.
Я слышал тем или иным краем уха о куче проектов ДЦ, которые пытаются сделать. Причем не на коленке, а с серьезными ребятами типа профешинал сервиса APC, и не "без упса", а полноценный Тиер4... что из этого доживет в продакшни и сколько это будет стоить для конечного клиента... хы, посмотрим.
Цитата
Я согласен что питание должно быть хорошим, но если присоседется сразу к нормальнму источнику питания то можно честно "сэкономить" на начальном этапе просто отказавшись от Батареек, Генераторов, Газа.

Блин, очень хочется съязвить, но я работаю над собой ;)
Так что просто... поинтересуйтесь, сколько денег стоит выделение мощности (в том случае, если это удалось найти) - именно выделение, а не последующая оплата за киловаты.
udofun
Цитата
сколько денег стоит выделение мощности (в том случае, если это удалось найти) - именно выделение, а не последующая оплата за киловаты.

Слышал что за "оформление бумажки" что-то вроде 50кRUR за кВт.
При этом это касается подведения нового питания. В москве и области полно мест куда питание уже подведено и оформлено. Сколько запущенных заводов! Жуть.
Например на м. курская есть АЗ "АРМА", старая территория которую раздают под офисы.
Сделали дискотеку и т.д. Там же устроилась фабрика по термопечати... кушают мегаватами. И живут припеваючи, зарумеется питание было уже.

Вижу что тема нормального ДЦ интересна многим.

Я считаю что большей части клиентов будет интересен вариант 1
Тем более если это позволит сделать уровень цен на размещение 1ого сервера - 1500 RUR (60$)
или стойки за 30кRUR (1300$) - то клиентов было бы предостаточно и без всяких безперебойников и батареек.

Я помню как сколько-то лет назад мне предлагали стойки на м9 по 600$ и я тогда отказался, для меня было дорого.
MiksIr
Дык вариантов 1 навалом - жуй не хочу. Только не надо потом слезные темы создавать, что мол все плохо.

С подведенным уже электричеством тоже не все так просто. Думаете, энергосбыте сидят ленивцы, ковыряющие в носу "а, завод съехал, ну и хрен бы с его электричеством"... это при том, что в заморозки до сих пор по москве приходится ограничивать потребление, ибо все включают отопительные приборы.

В подмосковье полегче, но тоже не сахар, а там придется еще оптику в землю закапывать, да еще желательно двумя лучами. В общем, проблем хватает, а любая проблема - бабло. Вот отсюда и танцы.

Гы. А я помню, что мне газировку иногда по 3 копейки дорого было, приходилось без сиропа по копейке. Ничо, потом подрос - полегчало.
duken
Цитата(MiksIr @ 27.08.2008, 21:11) *

UPS 2N не делают

http://nvgdatacenter.ru/images/pages/uploaded/15.5_.jpg
Разве это не 2N? wink.gif
Это как раз то, что я имел ввиду под п. 3 smile.gif
MiksIr
Очень странн почему дизели после упсов...
Ну да, 2N, просто я мыслю немножко другими понятиями и для меня это защита двух лучей нерезервированным количеством упсов (N), а 2N - это двукратная избыточность для защиты одного луча (что не делают обычно). Хотя на правоту не претендую, так что сори wink.gif
duken
Цитата(MiksIr @ 28.08.2008, 17:28) *

Очень странн почему дизели после упсов...

В смысле? Где странно?
MiksIr
А, опять пардон. Так убивает исполнение этой схемы, что понять, что потребители вверху получилось только с третьего раза wink.gif Блин, "от источника к потребителю" - "слева-на-право" - "сверху-вниз"... электрические схемы усилителей, где выход слева, а вход справа видели когда-нить? =)
duken
Цитата(MiksIr @ 28.08.2008, 19:07) *

понять, что потребители вверху получилось только с третьего раза wink.gif

blink.gif
udofun
Итак.
Каким же должен быть нормальный датацентр для среднего потребителя?

Во первых. Он должен быть smile.gif

Лерическое отступление. Давайте разберемся кто такой "этот зверь", а именно клиент датацентра.
Список будет не полным, я лишь отображу свою сторону вопроса.
Т.к. форум у нас по хостингу, то первым делом будут хостингпровайдеры. Именно те люди которые снабжают обычных пользователей вычислительными ресурсами. ХП могут ставить 1-2 сервера.
Могут ставить стойки, могут кушать десятки стоек. Далее ХП могут заниматся colocation-ом, ставить сервера других людей. Также могут кушать от 1ой до 10-50 и более стоек. Как процесс идет. Сервера в аренду сюда же.
Далее. Отдельные интернет проекты. Т.е. те кому надо место для размещения оборудования под свой большой сайт, много серверов под свою большую игру и т.д. и т.п.
Прочие компании "не интернет". Комерческие компании, банки, телеком компании, провайдеры разные и т.д.

Доступ:
Доступ должен быть. В идиале 24 часа. По предварительной заявке скажем за 1-2 часа - нормально.
Должен быть подьезд для машины. Нормальное место-положение - пром зона москвы или ближайшее подмосковье.

Возможности:
Возможности ДЦ:
- размещение серверов (в стойках)
- подключение серверов к интернет, эксплуатация (каналы связи)
- хранение серверов (я думаю всем приходилось видеть груды пыльных серверов, ожидающих своей участи... без питания, без каналов, без пыли, под замком либо в стойках)
- работа с оборудованием (стол, стул, канал в инет с DHCP, монитор, клава, мышь). Опыта показывает что одного монитора-клава-мышь хватает на 40-60 стоек. вобщем это не самая расходная часть.
работать приходится, осьи ставить, пыль совочком выгребать из сервера. менять винты и блоки питания.
- возможность установки своего UPC-а под стойкой smile.gif
- возможность подключения IP-KVM к серверам удаленно.
- возможность подключения своих IP-KVM и KVM-switch к оборудованию.
- возможность использовать switch провайдера и установки своих switch.
- пачкорды UTP5 должный быть в нормальном кол-ве. очень умеляет картина когда большой Босс или Админ роется в груде хлама выискивая пожеванный кабель для своего нового сервера за много килобаксов.
- возможность напряч суппорт принести нужный сервер из серверной в комнату для работы, после того оттащить его обратно.

Безопасность:
Система пропусков приветствуется, должен быть список в базе ДЦ допущенных лиц с указанием блоков, стоек, серверов к которым разрешен доступ.
По ДЦ должно быть установлено видеонаблюдение.
Нормальная орхана "со стволами" и возможностью вызвать подкрепление также должна быть.
Видеонаблюдение у охраны и суппорта, видеозапись на недельку.

Климат:
В комнате работы с серверами +23..26С. Причем в любое время года!!! (от -30 до +50 на улице)
В серверной - 16...21С нормально.
В комнате техподдержки ДЦ - нормальная температура для жизнеобеспечения человека.
Как вариант проще: 24-25 С во всем ДЦ.
(но не +45 везде это точно. smile.gif
Пыль. ЕЕ быть не должно. Как угодно. Герметичность помещения, фильтры на кондиционерах. Пыле улавливатели? Мусора тоже быть не должно.

Конфиденциальность:
Визиты в ДЦ, заказы пропусков должны быть только в базе ДЦ. Соответственно о том что я завтра подвезу 100ню серверов никто знать не должен кроме клиента и сотрудников ДЦ.
Для работы с оборудованием лучше предусмотреть несколько небольших комнаток.

Удобства:
- Подьезд на машине должен быть удобным.
- Должна быть тележка для перевоза оборудования от стоянки до гермозоны.
- удобные универсальные крепления для размещения обоуровани (т.к. у кого рельсы не стандартные, у кого-то стойки, у кого-то их вобще нет, мы в 2х4 Для себя давно свои крепления заказываем универасальные под любой сервер. Кому надо - обращайтесь. Многие крупные ДЦ также делают.)
- Нормальные "удобства" должны быть также.
- Рядо кафе тоже не помешает smile.gif Хотябы кулер или автомат с водой! Кто работал хотябы час при +45 с зади стоек прекрастно меня поймет какой недостаток воды ощущаешь после этого.
- Место для работы с оборудованием, профилактика-ремонт.
- Должна быть возможность устанавливать PDU (удаленный ребут) и IP-KVM за счет ДЦ (лишняя копеечка в ДЦ).

Техподдержка:
Не менее 2ух человек в любое время суток. Время реагирования на телефонный звонок в ДЦ должно быть не более 30 секунд.
Также должна быть веб панель доступа для клиентов, оплаты, отдачи распоряжений на ребут.

Должна быть возможность "напрячь" суппорт
- подключить КВМ,
- перегрузить сервер,
- подключись USB сидиром с любой нужной операционной системой.
- обжать кабель.
- помочь поставить ОС думаю лишним не будет.


Прочие плюсо-минусы:
При большоем ДЦ имеет смысла там же предлагать людям комплектуху для серверов по нормальным ценам. Мыло ли кто винт захотел доставить, кто-то памяти. Когда это в ДЦ есть - намного интереснее.
Также если кто-то решил сразу сервер купить на вставая со стула - вобще супер. Дополнительные статьи прибыли. Если все будут свое железо везти - значит не надо было так цены задирать wink.gif


Вобщем если очень коротко, то так.
Будет еще минутка - допишу.

MiksIr
Бизнес-план пишете? Или просто мечтаете? laugh.gif laugh.gif laugh.gif laugh.gif
udofun
Собираю информацию.
Видимо придется бизнесплан делать.

Кто еще какие предложения пожелания выскажет?
RentaServer
udofun, "Канал должен быть нормальным (1Гб на стойку-две хватает)" Вы имеете ввиду выделенный канал?
A-l-e-X
Тоже интересует коло, но более скромно (около 7-10 серверов). Главное условия - трафик без разделение на вход/исход/зарубежный. (по 500-1200 гб на сервер).
Dmitry Gushin
A-l-e-X, отписал в приват.

Цитата(RentaServer @ 30.08.2008, 16:54) *

udofun, "Канал должен быть нормальным (1Гб на стойку-две хватает)" Вы имеете ввиду выделенный канал?


Ну почему бы и нет, если человек готов платить smile.gif
Хотя тут "честный" гигабит не требуется, на сколько я понимаю.
udofun
если я говорю что нужен 1Гб на 1-2 стойки - значит его сьедят полностью 1-2 стойки (мои стойки)
MiksIr
А у меня 4 сервера съедят 1G. Жду предложений на коло в москве 4Ю+коммутатор с гарантированным каналом 1Г зарубеж. Желательно, не дороже 4-5 тыс. рублей за все... ну можно 6, но тогда придется уже себя ограничивать.
ENELIS
^
О_О
магия какая-то, простите...
Dmitry Gushin
Цитата(MiksIr @ 31.08.2008, 18:07) *

А у меня 4 сервера съедят 1G. Жду предложений на коло в москве 4Ю+коммутатор с гарантированным каналом 1Г зарубеж. Желательно, не дороже 4-5 тыс. рублей за все... ну можно 6, но тогда придется уже себя ограничивать.


Это такая шутка неудачная, да?
MiksIr
Dmitry Gushin, а что, топикстартеру можно хотеть стойку "хотя бы" с соткой за 30-ку, а мне всего лишь 4 сервера с гигабитом за 5 тыс нельзя? Ну ладно, не прав я.. давайте по 6! =)
kpv
MiksIr, определитесь уж - мы продаём или покупаем? laugh.gif
если продаём, то в мегабитах и киловаттах? а может быть всё таки в рублях?
Юра, я предполагаю, прекрасно знает сколько стоит "честный" гигабит.
MiksIr
Знает, а тут просто мечтает? wink.gif Эх, мечты, мечты...
Это текстовая версия — только основной контент. Для просмотра полной версии этой страницы, пожалуйста, нажмите сюда.
Русская версия Invision Power Board © 2001-2025 Invision Power Services, Inc.