>Судя по всему, файлов немного.Штук 20. Цель была сгенерить много запросов т.к. тогда пипл утверждал что течет на каждый запрос - вот это и хотелось проверить.Проверил.Для как минимум базовой части сервака и несложного набора модулей и свежей на момент тестов версии 1.4.18 - не подтвердилось.
>Не катит, имхо, для тестов.
Тесты бывают разные.Если цель теста - посмотреть как сервак поведет себя на большом числе запросов и не потечет ли память - по-моему, мой тест вполне адекватен.Как минимум, гипотеза что lihgttpd сам по себе смущает большое число запросов - не подтверждается.Может быть тек какой-то модуль или при каких-то настройках или при специфичных запросах?Или сто лет починено, поскольку при раздаче файла вики и ютубом они должны были бы мягко говоря заметить саму по себе утечку памяти на отгрузке файла - при их объемах отгрузки она должна быть ДИКАЯ :)
>Надо много файлов,
Кому надо?Зачем?И что это даст?Не вижу почему если память не течет на 20 файлах то вдруг потечет на 200 или 2000 или сколько там еще?Я где-то не прав?Что изменится?
>разных, плохо кешируемых.
Плохо кешируемых?А что это даст для такого теста?Кроме тормозов.Ну, скорость проведения теста замедлится в несколько раз.А что от этого изменится в условиях работы программы?В конечном итоге файл читает система по системному вызову.Попало оно в дисковый кэш или нет лайт вообще по идее не знает - его дело маленькое, нужные системные вызовы дернуть.А попало оно там в кэш или нет - вообще не его дело в общем случае.
>Хотя я не знаю, что именно тогда
>текло (давно было, в каких-то 1.3.х версиях, если не ошибаюсь), может
>Ваш-то тест и выявил бы тот лик.
1.3.x я не использовал.Начал его юзать эээ ... с версии 1.4.13, чтоли.А тестил лик на 1.4.18 - что-то не натестилось нифига.Недавно они кстати прибили забавный лик при duplicate хидерах в HTTP запросе, кажись.Но это уже экзотика.
>Сейчас поправили наверняка. Осадок
>просто остался, а с nginx я лучше, чем с лайти умею
>обращаться, вот и всё.
Судя по списку рассылки в нжинксе тоже есть много разных интересных багов и еще больше разных интересных багов поправлено :-).Почему-то у народа часто и красочно падают воркеры например.Я правда такого не встречал(но если честно то особо и не злобствовал - специальных краш-тестов не проводил).Правда я больше лайт юзаю, т.к. в моих конфигурациях никаких граблей у меня нет.
>Получить 200 коннектов - не такая уж проблема. Хотя от специфики сильно
>зависит.
Хм.Для обычного сайта простого смертного это подразумевает популярность здорово выше средней.Для такого как правило надо как попасть на слэшдот или что-то типа того.
>а с другой стороны хостинговые серверы с двумя-тремя сотнями сайтов,
>с которыми я непосредственно по работе вожусь, редко
>имеют больше 60-80 параллельных коннектов.
Ну вот и я о чем.
P.S. апача с префорком кстати данный тест выносит в хлам, особенно если файлы не 10 Мб а поменьше.Ему как правило становится очень нехорошо от форка на скорость 200 процессов.А на хилой машине они еще и сжирают всю RAM если админ не ограничил число процессов :D