Приветствую.
Есть задача: забрать rss с сайта, выдрать из него ссылки на полную
новость (поле link, наск. помню), и отдать их [ссылки] по одной на выход
[вгету с параметрами].
Есть условие: строго консольно, писанины - макс. правка конфига
(предложение написать скрипт и т.д. не рассматриваются).
Есть вопрос: есть ли :) в репах что-либо реализующее заявленную
функциональность?
google:feedparser
[Для rss2mail тоже, подозреваю, придется нечто руками писать, чего
хотелось бы сильно избежать, но похоже...]
Да, знакомо. Но, как понимаю, там требуется знание питона? Тогда см.
"условие" выше, ибо питон не знаю.
Впрочем, засунув пример (см. ниже) в test.py (добавив в начале ссылку на
питон и убрав >>>, ибо ругается [или оно надо в файле? ЧЯНДТ?]) - скрипт
явно что-то делает, но р-тов, описанных в примере (сохранение в домашней
директории rss.xml) не производит. Что тогда не так делаю?
Используется пример (Example: Parsing a feed from a remote URL) с
дефолтного сайта. По описанию "The following example assumes you are on
Windows, and that you have saved a feed at c:\incoming\atom10.xml."
но нигде не вижу никакого xml`a. ЧЯНДТ?
[уточнение - питона я все же не знаю, что-то где-то мог и напутать!].
--
пример с сайта:
>>> import feedparser
>>> d = feedparser.parse('http://feedparser.org/docs/examples/atom10.xml')
>>> d['feed']['title']
u'Sample Feed'
--
--
С уважением,
Константин Шувалов
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org