<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Анализ больших логов apache(nginx) access</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html</link>
    <description>&lt;br&gt;Появилась необходимость получить статистику самых частых ошибок на основе анализа apache(nginx) access логов.&lt;br&gt;Размер логов &amp;gt; 5 Гб за сутки.&lt;br&gt;&lt;br&gt;Пример желаемого отчета:&lt;br&gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;domain&amp;gt; &amp;lt;reffer&amp;gt;&lt;br&gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;domain&amp;gt; &amp;lt;reffer&amp;gt; &lt;br&gt;...&lt;br&gt;&lt;br&gt;AWStats - не получается использовать т.к. процесс анализа умирает из-за огромного размера лога&lt;br&gt;&lt;br&gt;Анализатор visitors (http://www.hping.org/visitors/) - не показывает рефферы 404 ошибок, без реффера невозможно определить адрес страницы на которой находится битая ссылка &lt;br&gt;&lt;br&gt;Написал простенький анализатор на основе awk&lt;br&gt;&lt;br&gt;awk &apos;($9 !~ /200&amp;#124;304/)&apos; $log &amp;#124; awk &apos;&#123;print $9,$7,$11&#125;&apos; &amp;#124; sort &amp;#124; uniq -c &amp;#124; sort -r -n &amp;#124; head -n 70&lt;br&gt;&lt;br&gt;В результате его работы получаю отчет вида&lt;br&gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;reffer&amp;gt;&lt;br&gt;&lt;br&gt;Вопрос: существуют ли другие решения которые могут предоставить расширенную статистику ошибок на основе access логов?&lt;br&gt;</description>

<item>
    <title>Анализ больших логов apache(nginx) access (Leo)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#8</link>
    <pubDate>Mon, 07 May 2012 21:31:37 GMT</pubDate>
    <description>Народ, помогите плиз? &lt;br&gt;Нужно написать скрипт на перл а у меня с ним опыта вобще никакого.&lt;br&gt;Задача:&lt;br&gt;Есть 4 папки в папке /weblogs&lt;br&gt;в каждой из них лежит немерянное количество архивированных логов апача.&lt;br&gt;Теперь есть файлик с 80тью IP адресами, и надо получить отчет какой адрес в каком файле встречается.&lt;br&gt;&lt;br&gt;Человек который поставил задачу посоветовал применить перл хэши.&lt;br&gt;Вот сижу теперь ломаю голову что это такое и с чем его едят :(&lt;br&gt;&lt;br&gt;Заранее благодарен за помощь.&lt;br&gt;&lt;br&gt;&lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (greenwar)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#7</link>
    <pubDate>Tue, 10 Nov 2009 10:16:19 GMT</pubDate>
    <description>попался мне тут лог httpd_access на глаза. соот-но, код меняем на этот:&lt;br&gt;&lt;br&gt;#!/usr/bin/perl&lt;br&gt;&lt;br&gt;use warnings;&lt;br&gt;&lt;br&gt;$from=&quot;httpd_access.log&quot;;&lt;br&gt;$to=&quot;httpd_parsed&quot;;&lt;br&gt;$total403=$total404=0;&lt;br&gt;&lt;br&gt;open(FH,&quot;$from&quot;)or die&quot;не открывается $from: $!&#092;n&quot;;&lt;br&gt;open(NEW,&quot;&amp;gt;$to&quot;);&lt;br&gt;&lt;br&gt;while(&amp;lt;FH&amp;gt;)&#123;&lt;br&gt;    next if !/&quot; (?:403&amp;#124;404) &#092;d/;&lt;br&gt;&lt;br&gt;    if(/&quot; 403 &#092;d/)&#123;print NEW &quot;$_&quot;;$total403++&#125;&lt;br&gt;    if(/&quot; 404 &#092;d/)&#123;print NEW &quot;$_&quot;;$total404++&#125;&lt;br&gt;&#125;&lt;br&gt;print NEW &quot;&#092;nвсего ошибок 403: $total403&lt;br&gt;всего ошибок 404: $total404&#092;n&quot;;&lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (greenwar)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#6</link>
    <pubDate>Tue, 10 Nov 2009 08:02:27 GMT</pubDate>
    <description>&amp;gt;Пример желаемого отчета: &lt;br&gt;&amp;gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;domain&amp;gt; &amp;lt;reffer&amp;gt;&lt;br&gt;&amp;gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;domain&amp;gt; &amp;lt;reffer&amp;gt; &lt;br&gt;&lt;br&gt;нужен визуальный пример строки, которую нужно зацепить&lt;br&gt;ну и также не помешает пример строки, которую цеплять не нужно&lt;br&gt;&lt;br&gt;ну а на основе пока имеющихся данных будет как-то так:&lt;br&gt;&lt;br&gt;#!/usr/bin/perl&lt;br&gt;&lt;br&gt;use warnings;&lt;br&gt;&lt;br&gt;my$from=&quot;/path/to/logfile&quot;; # откуда брать данные для обработки&lt;br&gt;my$to=&quot;/report/file&quot;; # куда скидывать обработанный вывод&lt;br&gt;&lt;br&gt;open(FH,&quot;$from&quot;);&lt;br&gt;open(TO,&quot;&amp;gt;$to&quot;);&lt;br&gt;while(&amp;lt;FH&amp;gt;)&#123;&lt;br&gt;next if !/код (404,503)/g;&lt;br&gt;$total++;&lt;br&gt;print TO &quot;$_&quot;; # не ставлю &#092;n, потому что строки в исходном файле уже с ним&lt;br&gt;&#125;&lt;br&gt;print TO &quot;&#092;nвсего ошибок: $total&#092;n&quot;;&lt;br&gt;&lt;br&gt;получите список ошибок 404,503 и общее их кол-во в файл /report/file&lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (Pahanivo)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#5</link>
    <pubDate>Thu, 29 Oct 2009 07:13:03 GMT</pubDate>
    <description>3. частая ротация&lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (sumaster)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#4</link>
    <pubDate>Thu, 29 Oct 2009 07:03:28 GMT</pubDate>
    <description>&amp;gt;Во первых perl быстрее, во вторых больше возможностей. Обрабатывались им и куда &lt;br&gt;&amp;gt;большие объемы. Правильно написанный вариант на perl справится с таким объемом &lt;br&gt;&amp;gt;за несколько минут. При желании можно его вообще сделать работающим по &lt;br&gt;&amp;gt;принципу tail -f да еще и  интерактивным. &lt;br&gt;&amp;gt;Если с perl не дружите, то опишите _детально_ задачу, как будет время &lt;br&gt;&amp;gt;займусь. &lt;br&gt;&lt;br&gt;спасибо&lt;br&gt;понял&lt;br&gt;1. готовых решений для анализа больших логов (вроде awstats) нет&lt;br&gt;2. нужно изучать perl &lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (angra)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#3</link>
    <pubDate>Thu, 29 Oct 2009 05:50:08 GMT</pubDate>
    <description>Во первых perl быстрее, во вторых больше возможностей. Обрабатывались им и куда большие объемы. Правильно написанный вариант на perl справится с таким объемом за несколько минут. При желании можно его вообще сделать работающим по принципу tail -f да еще и  интерактивным. &lt;br&gt;Если с perl не дружите, то опишите _детально_ задачу, как будет время займусь. &lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (McLeod095)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#2</link>
    <pubDate>Wed, 28 Oct 2009 14:51:30 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&amp;gt;Написал простенький анализатор на основе awk &lt;br&gt;&amp;gt;&amp;gt;&lt;br&gt;&amp;gt;&amp;gt;awk &apos;($9 !~ /200&amp;#124;304/)&apos; $log &amp;#124; awk &apos;&#123;print $9,$7,$11&#125;&apos; &amp;#124; sort &amp;#124; &lt;br&gt;&amp;gt;&amp;gt;uniq -c &amp;#124; sort -r -n &amp;#124; head -n 70 &lt;br&gt;&amp;gt;&amp;gt;&lt;br&gt;&amp;gt;&amp;gt;В результате его работы получаю отчет вида &lt;br&gt;&amp;gt;&amp;gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;reffer&amp;gt;&lt;br&gt;&amp;gt;&amp;gt;&lt;br&gt;&amp;gt;&amp;gt;Вопрос: существуют ли другие решения которые могут предоставить расширенную статистику ошибок на &lt;br&gt;&amp;gt;&amp;gt;основе access логов? &lt;br&gt;&lt;br&gt;От себя ничего полезного посоветовать не могу, но пока в качестве временных мер хочу предложить вместо awk использовать perl. сам на себе проверил что на больших файлах perl работает заметно шустрее чем awk, правда у меня файлы были от 100 мегбайт.&lt;br&gt;&lt;br&gt;и кстати &lt;br&gt;awk &apos;($9 !~ /200&amp;#124;304/ &#123;print $9,$7,$11&#125;)&apos; $log должно работать быстрее :-)&lt;br&gt;&lt;br&gt;СОРРИ за флуд&lt;br&gt;</description>
</item>

<item>
    <title>Анализ больших логов apache(nginx) access (xyz)</title>
    <link>https://www.opennet.me/openforum/vsluhforumID9/8493.html#1</link>
    <pubDate>Wed, 28 Oct 2009 14:29:39 GMT</pubDate>
    <description>ротация лога раз в несколько часов + австатс на более мелких кусках &lt;br&gt;&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;Написал простенький анализатор на основе awk &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;awk &apos;($9 !~ /200&amp;#124;304/)&apos; $log &amp;#124; awk &apos;&#123;print $9,$7,$11&#125;&apos; &amp;#124; sort &amp;#124; &lt;br&gt;&amp;gt;uniq -c &amp;#124; sort -r -n &amp;#124; head -n 70 &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;В результате его работы получаю отчет вида &lt;br&gt;&amp;gt;&amp;lt;кол-во повторов ошибки&amp;gt; &amp;lt;код (404,503 ...)&amp;gt; &amp;lt;запрос&amp;gt; &amp;lt;reffer&amp;gt;&lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Вопрос: существуют ли другие решения которые могут предоставить расширенную статистику ошибок на &lt;br&gt;&amp;gt;основе access логов? &lt;br&gt;&lt;br&gt;</description>
</item>

</channel>
</rss>
