Версия для печати темы

Нажмите сюда для просмотра этой темы в обычном формате

Онлайн-форум hostobzor.ru _ Железо _ Выбор железа под VDS хостинг

Автор: mrkilowatt 03.12.2011, 20:32

Доброго времени.

Попинайте конфиг железа под вдс хостинг, кто в теме.
Планирую на esxi все поднять.
Сейчас рассматриваю такой конфиг:
2U AMD Dual-CPU SC825 Server
2x AMD Opteron 12-Core 6172 2,1 GHz 12MB
128 GB ECC Registered DDR3 RAM 2 Rank ATP (16x 8192 MB)
8x3000 GB SAS II Seagate Constellation ES.2 3,5" 7.2k
LSI 9260-4i SAS2 4x internal
BBU Modul for 3Ware 9750 / LSI 9261 / LSI 9260
Intel 10 Gigabit SFP+ Dual Port Server Network Card
Slim DVD-Burner Dual Layer
2x 720 Watt (Hot-Swap) Power Supply

Автор: Ivan 03.12.2011, 21:03

Если все в тестед листе Vmware - то должно работать.
Мои поправки.


1) лучше 3.5 15k SAS винты размером поменьше - iopsы у вмваре кончаться куда быстрее, чем место на винтах.

2) Вы серьезно планируете забить 1гиг, раз покупаете 10G карту?

3) Опять же, нехилая конфигурация ценой в рав4, а на Vmware ESX денег нет? Рулить руками будете, или откопали хитрую тулзу?

Автор: mrkilowatt 03.12.2011, 22:07

Цитата(Ivan @ 03.12.2011, 22:03) *

Если все в тестед листе Vmware - то должно работать.
Мои поправки.
1) лучше 3.5 15k SAS винты размером поменьше - iopsы у вмваре кончаться куда быстрее, чем место на винтах.

2) Вы серьезно планируете забить 1гиг, раз покупаете 10G карту?

3) Опять же, нехилая конфигурация ценой в рав4, а на Vmware ESX денег нет? Рулить руками будете, или откопали хитрую тулзу?


О, спасибо, просмотрел что карта идет как дополнительная, а так на борту 2x 1 GBit/s LAN (RJ-45) Intel 82576
сас диски конечно быстрее будут но с объемом тогда провал получается, вместо 24Т - 4,8Т, может для таких решений лучше отдельный сторадж ставить ?
Насчет esx, вроде вмваре сейчас только esxi оставила, а рулить vsphere, тут особого выбора вроде нет.

Автор: Ivan 03.12.2011, 23:59

Если есть деньги - можно и два стораджа поставить, и 10G вам тогда пригодится, ну, или через внешний SAS в них ходить. Еще можно не одну суперноду взять, а две -три ноды подешевле поставить, а нагрузку между ними балансировать переносами с ноды на ноду.

Вы уверены, что вы упретесь в недостаток места раньше, чем в недостаток иопсов?
Моя практика показывает - пользователи вдсов страх как любят халявные иопсы, а вот сколько им РЕАЛЬНО надо места считать вполне умеют. Сколько вы там ВЕшек хотите запустить? Подсказываю, 50 штук SAS RAID 10 из 4 300G 15k дисков рвут на мелкие кусочки. А иопсов там уж точно не меньше, чем в (какой вы там RAID собрались ставить) из 8 7.2k дисков. Причем, 600G на 50 вешек им хватает с большим запасом и перспективой расширения.

Автор: mrkilowatt 04.12.2011, 00:36

Цитата(Ivan @ 04.12.2011, 00:59) *

Вы уверены, что вы упретесь в недостаток места раньше, чем в недостаток иопсов?

Думаю что нет, скорее расчитывал объем про запас, в принципе практически за ту же стоимость можно 9т на 15к сас дисках сделать, должно хватить.


Цитата(Ivan @ 04.12.2011, 00:59) *

Моя практика показывает - пользователи вдсов страх как любят халявные иопсы, а вот сколько им РЕАЛЬНО надо места считать вполне умеют. Сколько вы там ВЕшек хотите запустить? Подсказываю, 50 штук SAS RAID 10 из 4 300G 15k дисков рвут на мелкие кусочки. А иопсов там уж точно не меньше, чем в (какой вы там RAID собрались ставить) из 8 7.2k дисков. Причем, 600G на 50 вешек им хватает с большим запасом и перспективой расширения.

4 на ядро планирую, райд 50-60 или 10

Автор: iwant2beahoster 23.12.2011, 22:24

Я планирую немного иначе.

Процы Xeon 4-6 ядер и 32 48 гиг памяти на ноду.
В этом случае парная гигабитка должна справиться. 10G зводить в ноду на мой взгляд это перебор.
Диска тоже сильно много ставите.
Я недавно провёл тестирование 3 разных рейд контроллеров
3WARE 9650SE 16-port SATA 3Gb/s 256MB RAID
LSI SAS9260-16i 512Mb
Areca 1680 IX 16 2GB

Тестировал с 16-тью SATA2 дисками по 1TB собранными в RAID10
Победу одержал LSI.
Areca выиграл только RandomWrite тестах. Не мудрено с таким-то кешем.
3ware был круче Areca в больших блоках 32-64k

Если взять устреднённый вариант, хотя не считал, то на мой взгляд контроллеры дают около 1500 IOPS

На линейном чтении LSI давал до 90 тыс IOPS %)

У вас будет рейд короче. Значит IOPSы будут меньше. Имейте это ввиду.

Автор: Lolth 27.12.2011, 16:22

Чем так плохи SATA? У меня они стоят на всем, что работает и проблем нет!

Автор: iwant2beahoster 27.12.2011, 22:31

Цитата(Lolth @ 27.12.2011, 16:22) *
Чем так плохи SATA? У меня они стоят на всем, что работает и проблем нет!
SATA не плох. Я сам с них хочу начать. Но вникните в вопрос топикстартера. У него есть некий набор железа. И винты там - узкое место. Их мало. Сильно разбить на страйпы и распараллелить операции не удастся. И они не такие шустрые, как SAS. Всё упрётся в ограничение IOPs. А как потом на бегущем сервере заменить SATA винты на SAS? Пересадить виртуалки куда-то ещё, по очереди, с даунтаймом или всё остановить на время и переустановить RAID.

Автор: WebGraf 09.01.2012, 00:30

Цитата(iwant2beahoster @ 27.12.2011, 21:31) *

SATA не плох. Я сам с них хочу начать. Но вникните в вопрос топикстартера. У него есть некий набор железа. И винты там - узкое место. Их мало. Сильно разбить на страйпы и распараллелить операции не удастся. И они не такие шустрые, как SAS. Всё упрётся в ограничение IOPs. А как потом на бегущем сервере заменить SATA винты на SAS? Пересадить виртуалки куда-то ещё, по очереди, с даунтаймом или всё остановить на время и переустановить RAID.

Перенести все не проблема. Даунтайм конечно будет.
Проблема в том что САТА при нагруженном сервере создаст кучу проблем, да и не проживет она долго при агрессивном использовании.

Автор: slavkoo 09.12.2012, 19:47

Может хватит уже с сата, а твердо тельники почему не рассматриваете?

Автор: Roman Hirauka 12.12.2012, 17:58

Берите SAS. Хотя и на SATA можно спокойно работать. У меня была нода с 6 винтами 2 TB WD RE 4 SATA. Где-то 30-35 виртуалок, два года работы - никаких проблем.
Лично моя паранойя выбрала бы лучше SATA чем SSD для ноды vds в продакшн. Пока так.

Автор: nikosd 12.12.2012, 21:57

Цитата(Ivan @ 04.12.2011, 00:59) *

Если есть деньги - можно и два стораджа поставить, и 10G вам тогда пригодится, ну, или через внешний SAS в них ходить. Еще можно не одну суперноду взять, а две -три ноды подешевле поставить, а нагрузку между ними балансировать переносами с ноды на ноду.

Вы уверены, что вы упретесь в недостаток места раньше, чем в недостаток иопсов?
Моя практика показывает - пользователи вдсов страх как любят халявные иопсы, а вот сколько им РЕАЛЬНО надо места считать вполне умеют. Сколько вы там ВЕшек хотите запустить? Подсказываю, 50 штук SAS RAID 10 из 4 300G 15k дисков рвут на мелкие кусочки. А иопсов там уж точно не меньше, чем в (какой вы там RAID собрались ставить) из 8 7.2k дисков. Причем, 600G на 50 вешек им хватает с большим запасом и перспективой расширения.

Иван, это вопрос позиционирования сколько места на ноду надо.
То есть что именно Вы продаете.
Хотя эксперименты показывают что если продавать VPS с много места лучше наделать аппаратных зеркал и выдавать каждой паре - тройке пользователей место на своем зеркальном носителе. И, при таких конфигах ( которые тяжелы) на 2 камня по 12 ядер ставим 144 памяти и именно памяти и не хвататет в продажу.
Встречал варианты с дисками по iSCSI которые продаются дешевле и режутся по iops

Автор: woland 21.01.2013, 07:20

Цитата(slavkoo @ 09.12.2012, 20:47) *

Может хватит уже с сата, а твердо тельники почему не рассматриваете?

А как у хардварных RAID'ов дела с TRIM? wink.gif

Автор: udofun 21.01.2013, 14:46

см адаптек.

Цитата

И, при таких конфигах ( которые тяжелы) на 2 камня по 12 ядер ставим 144 памяти
круто че smile.gif

Автор: ENELIS 21.01.2013, 17:12

Цитата(woland @ 21.01.2013, 08:20) *

А как у хардварных RAID'ов дела с TRIM? wink.gif

Overprovisioning спасет.

Русская версия Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)