Цитата(Boris A Dolgov @ 02.01.2010, 10:03)

<теория>
Gоиск в сбалансированном двоичном дереве пропорционален двоичному логарифму вариантов.
log2(10000) / / log2(1000) = (log(10000) / log(2)) / (log(1000) / log(2)) = log(10000) / log(1000) = 4 / 3 = 1.33. - таким образом, время выполнения поиска соответствия запросу виртхоста займет всего лишь в 1.33 раза больше времени.
Да, при старте понадобится много времени для построения дерева, оно пропорционально Nlog(N), и будет выполняться дольше в 10000log(10000) / 1000log(1000) = 40000 / 3000 = 13.33 раза.
</теория>
<практика>
Апач с кучей виртхостов я не пробовал. по идее, единственное узкое место - под такую конфигурацию нужна куча памяти и при каждом форке придется копировать информацию о куче страниц. Но superpages уже придумали, осталось подождать, пока их нормально напишут и обкатают.
Nginx с кучей виртуалхостов я пробовал, и работает он прекрасно.
В общем, хотелось бы увидеть бенчмарк

Может быть, после празников я его и сделаю.
</практика>
?
Поиск - это поиск нужного виртуалхоста в httpd.conf?
ИМХО - это копейки. Самое основное - это обслуживание запросов.
Из статьи Андрея я понял, что он считает несколько апачей в работе более быстрыми, чем один.
За счёт чего - вот это не совсем понял.
За счёт того, что когда один апач может на чём-то "воткнуть" со всеми своими трэдами, но в то же время другие отдельные апачи будут работать ?
Потому и спрашивал - хотелось бы понять. Хотя бы в теории