From mboxrd@z Thu Jan 1 00:00:00 1970 Return-Path: Message-ID: <434EEC11.3020408@gorodmasterov.com> Date: Fri, 14 Oct 2005 03:21:53 +0400 From: Vladimir Lettiev User-Agent: Mozilla Thunderbird 1.0.6 (X11/20050815) X-Accept-Language: ru-ru, ru MIME-Version: 1.0 To: ALT Devel discussion list Subject: Re: [devel] =?KOI8-R?Q?=D0=D2=C5=C4=CC=CF=D6=C5=CE=C9=C5_=D2=CF?= =?KOI8-R?Q?=C2=CF=D4=C1=CD_=C9_=C9=C8_=C8=CF=DA=D1=C5=D7=C1=CD?= References: <20051013101150.3aa79481.pilot@altlinux.ru> In-Reply-To: <20051013101150.3aa79481.pilot@altlinux.ru> Content-Type: text/plain; charset=KOI8-R; format=flowed Content-Transfer-Encoding: 8bit X-Virus-Scanned: by amavisd-new at gorodmasterov.com X-BeenThere: devel@altlinux.ru X-Mailman-Version: 2.1.5 Precedence: list Reply-To: ALT Devel discussion list List-Id: ALT Devel discussion list List-Unsubscribe: , List-Archive: List-Post: List-Help: List-Subscribe: , X-List-Received-Date: Thu, 13 Oct 2005 23:17:02 -0000 Archived-At: List-Archive: List-Post: Denis Ovsienko пишет: > Давайте сделаем следующие странички и обеспечим их своевременное автоматическое > обновление: > http://sisyphus.ru/unmets > http://sisyphus.ru/bad_elf_symbols > http://sisyphus.ru/misassigned_bugs > http://sisyphus.ru/rebuild_status > А в шапке чтобы была дата генерации. Технически это можно организовать, например, таким образом: Робот создаёт некоторый отчёт. Как уже отметили, данные отчёта представляет собой таблицу. Т.о. этот отчёт можно отформатировать в виде csv-файла: первая строка - названия столбцов, последующие строки - данные, разделяемые символом разделителя (например, табуляция). Полученный файл, можно сжать, затем wget'ом (который кажется умеет отправлять POST-данные) отправить в предварительно заготовленную форму на сайте. Соотвествующее cgi-приложение на стороне сервера, проделают всю оставшуюся работу по разбору данных. Естественно на форму навесится авторизация, чтобы исключить флуд со стороны нероботов. Преимущества схемы очевидны: можно создавать столько отчётов, сколько вздумается - все роботы будут работать по одной схеме. Возможна как ручная, так и автоматическая загрузка данных. Всё относительно безопасно. А уж какие страницы можно будет генерировать потом: и html, и xml (RSS) и что угодно. Готов взяться за написание server-side приложений. И, при необходимости, помочь накатать конвертер raw-robot-data -> csv. -- С уважением, Владимир Леттиев aka crux