# Copyright (C) 2001-2018, Python Software Foundation # For licence information, see README file. # msgid "" msgstr "" "Project-Id-Version: Python 3\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2021-09-23 16:16+0200\n" "PO-Revision-Date: 2019-11-17 23:32+0100\n" "Last-Translator: Jules Lasne \n" "Language-Team: FRENCH \n" "Language: fr\n" "MIME-Version: 1.0\n" "Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" "X-Generator: Poedit 2.2.4\n" #: library/urllib.robotparser.rst:2 msgid ":mod:`urllib.robotparser` --- Parser for robots.txt" msgstr ":mod:`urllib.robotparser` — Analyseur de fichiers *robots.txt*" #: library/urllib.robotparser.rst:10 msgid "**Source code:** :source:`Lib/urllib/robotparser.py`" msgstr "**Code source :** :source:`Lib/urllib/robotparser.py`" #: library/urllib.robotparser.rst:20 #, fuzzy msgid "" "This module provides a single class, :class:`RobotFileParser`, which answers " "questions about whether or not a particular user agent can fetch a URL on " "the web site that published the :file:`robots.txt` file. For more details " "on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/" "orig.html." msgstr "" "Ce module fournit une simple classe, :class:`RobotFileParser`, qui permet de " "savoir si un *user-agent* particulier peut accéder à une URL du site web qui " "a publié ce fichier :file:`robots.txt`. Pour plus de détails sur la " "structure des fichiers :file:`robots.txt`, voir http://www.robotstxt.org/" "orig.html." #: library/urllib.robotparser.rst:28 msgid "" "This class provides methods to read, parse and answer questions about the :" "file:`robots.txt` file at *url*." msgstr "" "Cette classe fournit des méthodes pour lire, analyser et répondre aux " "questions à propos du fichier :file:`robots.txt` disponible à l'adresse " "*url*." #: library/urllib.robotparser.rst:33 msgid "Sets the URL referring to a :file:`robots.txt` file." msgstr "Modifie l'URL référençant le fichier :file:`robots.txt`." #: library/urllib.robotparser.rst:37 msgid "Reads the :file:`robots.txt` URL and feeds it to the parser." msgstr "" "Lit le fichier :file:`robots.txt` depuis son URL et envoie le contenu à " "l'analyseur." #: library/urllib.robotparser.rst:41 msgid "Parses the lines argument." msgstr "Analyse les lignes données en argument." #: library/urllib.robotparser.rst:45 msgid "" "Returns ``True`` if the *useragent* is allowed to fetch the *url* according " "to the rules contained in the parsed :file:`robots.txt` file." msgstr "" "Renvoie ``True`` si *useragent* est autorisé à accéder à *url* selon les " "règles contenues dans le fichier :file:`robots.txt` analysé." #: library/urllib.robotparser.rst:51 msgid "" "Returns the time the ``robots.txt`` file was last fetched. This is useful " "for long-running web spiders that need to check for new ``robots.txt`` files " "periodically." msgstr "" "Renvoie le temps auquel le fichier ``robots.txt`` a été téléchargé pour la " "dernière fois. Cela est utile pour des *web spiders* de longue durée qui " "doivent vérifier périodiquement si le fichier est mis à jour." #: library/urllib.robotparser.rst:57 msgid "" "Sets the time the ``robots.txt`` file was last fetched to the current time." msgstr "" "Indique que le fichier ``robots.txt`` a été téléchargé pour la dernière fois " "au temps courant." #: library/urllib.robotparser.rst:62 msgid "" "Returns the value of the ``Crawl-delay`` parameter from ``robots.txt`` for " "the *useragent* in question. If there is no such parameter or it doesn't " "apply to the *useragent* specified or the ``robots.txt`` entry for this " "parameter has invalid syntax, return ``None``." msgstr "" "Renvoie la valeur du paramètre ``Crawl-delay`` du ``robots.txt`` pour le " "*useragent* en question. S'il n'y a pas de tel paramètre ou qu'il ne " "s'applique pas au *useragent* spécifié ou si l'entrée du ``robots.txt`` pour " "ce paramètre a une syntaxe invalide, renvoie ``None``." #: library/urllib.robotparser.rst:71 msgid "" "Returns the contents of the ``Request-rate`` parameter from ``robots.txt`` " "as a :term:`named tuple` ``RequestRate(requests, seconds)``. If there is no " "such parameter or it doesn't apply to the *useragent* specified or the " "``robots.txt`` entry for this parameter has invalid syntax, return ``None``." msgstr "" "Renvoie le contenu du paramètre ``Request-rate`` du ``robots.txt`` sous la " "forme d'un :term:`named tuple` ``RequestRate(requests, seconds)``. S'il n'y " "a pas de tel paramètre ou qu'il ne s'applique pas au *useragent* spécifié ou " "si l'entrée du ``robots.txt`` pour ce paramètre a une syntaxe invalide, " "``None`` est renvoyé." #: library/urllib.robotparser.rst:81 msgid "" "Returns the contents of the ``Sitemap`` parameter from ``robots.txt`` in the " "form of a :func:`list`. If there is no such parameter or the ``robots.txt`` " "entry for this parameter has invalid syntax, return ``None``." msgstr "" "Renvoie le contenu du paramètre de ``Sitemap`` depuis ``robots.txt`` dans la " "forme d'une :func:`list`. S'il n'y a pas de tel paramètre ou qu'il ne " "s'applique pas au *useragent* spécifié ou si l'entrée du ``robots.txt`` pour " "ce paramètre a une syntaxe invalide, renvoie ``None``." #: library/urllib.robotparser.rst:89 msgid "" "The following example demonstrates basic use of the :class:`RobotFileParser` " "class::" msgstr "" "L'exemple suivant présente une utilisation basique de la classe :class:" "`RobotFileParser` ::"