Помощь - Поиск - Пользователи - Календарь
Полная версия: Настроить сервер
Онлайн-форум hostobzor.ru > Архив (темы до 1.06.2015). Только для чтения. > Хост-Базар > Работа в хостинговых компаниях > Вакансии
radeon
Через неделю - две нужно будет настроить сервер (сейчас его активно вибираю, буду благодарен за помощь http://forum.hostobzor.ru/index.php?showtopic=12435)

Что нужно настроить на голом сервере
- OS (linux)
- Apache, php, python, mysql и пр.
- ISPManager
- Настроить dns, почту и тд.
- Настроить бекапы (ежедневные, на второй хард)

Работа сдельная, также в будущем хочется обращаться по донастройки и решению проблем (оплата также сдельно).

Сейчас хочется найти кандидата и узнать
- сроки
- стоимость

Спасибо.
different
Можем обсудить стоимость в ICQ\Jabber (241915855 \ differentlocal@jabber.ru). Сроки - в течение дня.
eSupport.org.ua
Добавьте еще пункт базовая защита сервера, чтоб не поломали
Денис
Цитата(radeon @ 05.03.2009, 20:39) *

Через неделю - две нужно будет настроить сервер (сейчас его активно вибираю, буду благодарен за помощь http://forum.hostobzor.ru/index.php?showtopic=12435)

Что нужно настроить на голом сервере
- OS (linux)
- Apache, php, python, mysql и пр.
- ISPManager
- Настроить dns, почту и тд.
- Настроить бекапы (ежедневные, на второй хард)

Работа сдельная, также в будущем хочется обращаться по донастройки и решению проблем (оплата также сдельно).

Сейчас хочется найти кандидата и узнать
- сроки
- стоимость

Спасибо.


Срок стандартной удаленной настройки под хостинг 2-3 дня. Если что-то хочется индивидуальное, то больше, надо обсуждать.
Про настройку хостингового сервера пишите на denis@radioman.ru
Про железо звоните, расскажу, либо оставьте свой телефон.
2175
Цитата(eSupport.org.ua @ 05.03.2009, 21:02) *

Добавьте еще пункт базовая защита сервера, чтоб не поломали

Злой, не хороший человек, есть вещи, которые подразумеваются .., Вы же не пишете в вакасии, после приема на работу соблюдать правила дорожного движения, что бы Ваша работа не стала Вашим завещанием обществу.
ТС - обсуждаемо, подо что сервер смотря
eSupport.org.ua
Просто мне уже не раз приходилось восстанавливать порутанные севера, которые настраивали админы с вебланса. Про защиту ничего не говорили - они и не делали smile.gif
gentooman
Цитата(radeon @ 05.03.2009, 19:39) *

- Настроить бекапы (ежедневные, на второй хард)


Не рекомендую. Совсем.
Накроется системный диск - куда разворачивать бекапы будете?
Результат - сервер стоит.

Накроется диск с бекапами - где будете брать архив?
Клиент в понедельник - мне надо восстановить сайт на пятницу!!!?
Результат - клиента нет.

Если бюджет ограничен - два диска большого обьема,
из двух дисков - зеркало (raid1), и бакапить на отдельний раздел рейда.
Т.е. раздел под систему/пользователей + раздел под бекапы

Но, каждый ССЗБ...
different
Цитата(gentooman @ 07.03.2009, 13:30) *

Если бюджет ограничен - два диска большого обьема,
из двух дисков - зеркало (raid1), и бакапить на отдельний раздел рейда.
Т.е. раздел под систему/пользователей + раздел под бекапы


Чтобы если этот рейд слетит (пожар\потоп\питание\винты бракованные\кривые руки\etc), то потерять и данные и их копии? smile.gif

p.s. Вполне адекватен вариант с "рабочим" бэкапом на 2ом винте. Именно на случай "клиент удалил свой сайт". Но основной бэкап, имхо, нужно выносить за пределы сервера на стриммер\DVD\NAS\другой сервер в другом ДЦ.
gentooman
Цитата(different @ 07.03.2009, 13:38) *

Чтобы если этот рейд слетит (пожар\потоп\ \кривые руки\etc), то потерять и данные и их копии? smile.gif


Скажите мне, как спасет второй (отдельный винт под архивы) в данном случае?

Цитата(different @ 07.03.2009, 13:38) *

Чтобы если этот рейд слетит ( питание\винты бракованные\), то потерять и данные и их копии? smile.gif


Как в таких ситуациях можно потерять и данные и копии - вслучае raid1?
Устойчивость раздела на зеркале - существенно выше чем на отдельно взятом винте.
И отказ одного из дисков не приведет ни к остановке сервера целиком, ни к потери архива.

Цитата(different @ 07.03.2009, 13:38) *

Вполне адекватен вариант с "рабочим" бэкапом на 2ом винте. Именно на случай "клиент удалил свой сайт"


Чем он адекватен?
Тем что сдох системный диск и сервер простаивает?
Пока на новый не поставят систему и не развернут из архива бекапы?
В хостинге много разных случаев бывает, кроме-как "клиент удалил свой сайт"

У чела "похачили" сайт. Чел вышел из запоя/приехал из отпуска/командировки, увидел -
дайте мне копию недельной давности.
А у тебя диск с архивами умер.
Только системный живой.
Это адекватно?

Цитата(different @ 07.03.2009, 13:38) *

Но основной бэкап, имхо, нужно выносить за пределы сервера на стриммер\DVD\NAS\другой сервер в другом ДЦ.


Бесспорно.
Но у человека явно бюджет не тот.
eSupport.org.ua
Несколько раз терялись данные на raid 1
Причина - сбой контроллера
gentooman
Цитата(eSupport.org.ua @ 07.03.2009, 15:44) *

Несколько раз терялись данные на raid 1
Причина - сбой контроллера


Тут мне нечего возразить не превращая тему во флейм.
У каждого свой опыт. Нужен нормальный аппаратный контроллер,
либо если "говонорейд" - тогда только софтверная реализация из
отдельных дисков средствами OS.
С 2004 на моей памяти был один случай полного умирания зеркала - и
то из-за человеческой ошибки (саппорт в ДЦ сделал ребилд с деградед диска).
Подчеркну - только юникс системы.
Как ведет себя рейд под виндами - не знаю.

Либо нормальный контроллер - либо софтверный.
На дешевых псевдо-рейдах - глюков необерешься.
Не использовал никогда. И не советую.
eSupport.org.ua
Тогда список хороших контроллеров - в студию!
gentooman
Цитата(eSupport.org.ua @ 07.03.2009, 20:35) *

Тогда список хороших контроллеров - в студию!


Здесь это оффтопик.
sad.gif
eSupport.org.ua
Тогда в личку
radeon
Цитата(gentooman @ 07.03.2009, 20:46) *

Здесь это оффтопик.
sad.gif


Не, в самый раз написать здесь, ибо как говорил, сейчас выбираю машинку какую купить, лучше сразу учту, нежели потом бегать и докупать части.

А на счет хардов, как тогда оптимальнее поступить ?
Поставить три харда - два из них рейд и еще один просто туда бекапы кидать (на случай если рейд умрет) ?

А на счет удаленных бекапов, как мне кажется в этом совсем нет проблемы, ибо можно довольно дешево взять дисковое удаленное хранилице (тотже s3), неправ ?


ENELIS
Интересно что нужно сделать чтобы сдох бекапный диск... Он изначально должен быть хреновым для этого, но, пардон dd if=/dev/urandom of=/dev/aacd0s1e bs=1K count=`df | grep /dev/aacd0s1e | awk '{print $4}'` и маунт будет забит под ноль и проверен.
2175
Цитата(ENELIS @ 12.03.2009, 00:33) *

Интересно что нужно сделать чтобы сдох бекапный диск... Он изначально должен быть хреновым для этого, но, пардон dd if=/dev/urandom of=/dev/aacd0s1e bs=1K count=`df | grep /dev/aacd0s1e | awk '{print $4}'` и маунт будет забит под ноль и проверен.

Дохнет все, сдох вчера 6 -й raid ( без человеческого фактора), пока несли со склада один винт - сдох второй, во время ребилда вылетел 3-й (:.
Сервер до этого трудился год была одна замена диска. БП что ли так красиво задурил ..
Только внешнее хранение ( лучше в другом ДЦ) дает шанс сохранить данные.
kolobok
Цитата(2175 @ 12.03.2009, 04:56) *

Дохнет все, сдох вчера 6 -й raid ( без человеческого фактора), пока несли со склада один винт - сдох второй, во время ребилда вылетел 3-й (:.
Сервер до этого трудился год была одна замена диска. БП что ли так красиво задурил ..
Только внешнее хранение ( лучше в другом ДЦ) дает шанс сохранить данные.

У меня с интервалом полчаса сдохли 4 рейда пятого уровня. Контроллеры IBM ServerRaid 6i+. Саппорт IBM развел руками, и сказал - ну чтож, все бывает..... Так что +1 насчет внешнего бекапа.
gentooman
Цитата(radeon @ 11.03.2009, 23:15) *

Не, в самый раз написать здесь, ибо как говорил, сейчас выбираю машинку какую купить, лучше сразу учту, нежели потом бегать и докупать части.


Насколько я понимаю, здесь раздел о вакансиях.
Может имеет смысл продолжить тему в другой ветке - о выборе сервера?

Нормальный рейдконтроллер имеет собственный процессор и память.
За счет этого и цена:
http://yandex.ru/yandsearch?text=lslsi+meg...mp;stpar1=%2Fu0
http://yandex.ru/yandsearch?text=srcs+inte...mp;stpar1=%2Fu0
http://yandex.ru/yandsearch?text=3ware&...mp;stpar1=%2Fu0

+ желательно всеже разориться на батарейку
были случаи, когда рейзер в который был воткнут контроллер,
через какое-то время механически выдавливался из разьема - в стойке ДЦ неплохая вибрация.

Цитата(radeon @ 11.03.2009, 23:15) *

А на счет хардов, как тогда оптимальнее поступить ?
Поставить три харда - два из них рейд и еще один просто туда бекапы кидать (на случай если рейд умрет) ?


Мы обсуждаем "сферического коня в вакууме".
Требуемые дисковые обьемы? Производительность I/O ?
Что преобладает - чтение или запись? Вы говорили об обработке xml
Парсинг xml в массовом порядке может создать нехилую нагрузку на CPU.
Сколько планируется клиентов на этот сервер? Мы гадаем на кофейной гуще.

Попробуйте с хостером, у которого планируете размещать сервер договориться
об аранде какой-либо дешевенькой машинки на недельку - "на попробовать".
Развернуть Вашу систему SAAS - и провести нагрузочное тестирование.
После этого апроксимировать на желаемое количество клиентов на тачку.

Может вообще можно будет обойтись софтверным рейдом?

Цитата(radeon @ 11.03.2009, 23:15) *

А на счет удаленных бекапов, как мне кажется в этом совсем нет проблемы, ибо можно довольно дешево взять дисковое удаленное хранилице (тотже s3), неправ ?


Честно говоря, незнаю.
Существует ли вообще подобный рынок услуг?
Внешний бекап - это всегда плюс.
Иногда хостер предоставляет своим клиентам хранилице под бекапы на серверах хостера.
Но как правило это тот-же ДЦ (кто будет траф оплачивать меж площадками? )
Но даже в этом случае это лучше чем ничего.
eSupport.org.ua
А оставлять пару винтов в рейде под горячую замену - слабо?
gentooman
Цитата(ENELIS @ 12.03.2009, 00:33) *

Интересно что нужно сделать чтобы сдох бекапный диск... Он изначально должен быть хреновым для этого, но, пардон dd if=/dev/urandom of=/dev/aacd0s1e bs=1K count=`df | grep /dev/aacd0s1e | awk '{print $4}'` и маунт будет забит под ноль и проверен.


rolleyes.gif
А что нужно сделать, чтобы сдохли ДВА диска в софтверном зеркале?
Софтверный RAID1 чем хорош - из него всегда можно извлечь данные.
(Если один из дисков физически живой)
У меня были два уникальныхслучая (с разницей в ~7 месяцев), когда старенькая фря 4.7
после многих лет работы упала на софтверном raid1 (диски сказевые на набортном адаптеке).
Самое прикольное - попытка подцепить любой диск к другой машине с freebsd (пробовали разные версии до 6.4)
приводила к выдаче дампа ядра на этапе определения устройств. Т.Е. система видит диск, при попытке
посмотреть на таблицу разделов - сразу дамп ядра. Но этот диск прекрасно подцепился под линухом,
были смонтированы фрюшные разделы и по сети переписаны на другую машину.
Данные не были утеряны. Позже эти диски были переданы нашему Гуру ядра для анализа
(явно в обработчике ufs где-то что-то не так), но дальнейшее мне уже неизвестно.
gentooman
Цитата(eSupport.org.ua @ 12.03.2009, 08:30) *

А оставлять пару винтов в рейде под горячую замену - слабо?


+1
Но некоторым покажеться дорого.
2175
Цитата(gentooman @ 12.03.2009, 09:50) *

+1
Но некоторым покажеться дорого.

Если в моем случае - то слабо - корпус был до отказа забит. ( ну да, идиот понадеялся на то что 6 - ка и смена диска не более 30 минут занимает).
Andrew G. Kuznetsov
Цитата(radeon @ 05.03.2009, 19:39) *

Сейчас хочется найти кандидата и узнать
- сроки
- стоимость

Спасибо.


Стоимость настройки linux + ispmanager = 4500 руб.
Сроки настройки: до 2-х рабочих дней.

Также можем и сервер подобрать, собрать, привести, установить в датацентр.

Работа по договору.

Тел. 8-499-503-1011
s0laris
Для одного из новых серверов воспользовались услугой настройки сервера Дениса Соколова. Работой весьма довольным, была выполнена за короткие сроки и была хорошо документирована (были некоторые особенности настройки)

Так что можем смело рекомендовать, контакты можете взять тут:
http://forum.diradmin.ru/index.php?showtopic=931
Это текстовая версия — только основной контент. Для просмотра полной версии этой страницы, пожалуйста, нажмите сюда.
Русская версия Invision Power Board © 2001-2025 Invision Power Services, Inc.