1
0
Fork 0
python-docs-fr/library/urllib.robotparser.po

132 lines
5.5 KiB
Plaintext
Raw Permalink Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Copyright (C) 2001-2018, Python Software Foundation
# For licence information, see README file.
#
msgid ""
msgstr ""
"Project-Id-Version: Python 3\n"
"Report-Msgid-Bugs-To: \n"
"POT-Creation-Date: 2021-09-23 16:16+0200\n"
"PO-Revision-Date: 2019-11-17 23:32+0100\n"
"Last-Translator: Jules Lasne <jules.lasne@gmail.com>\n"
"Language-Team: FRENCH <traductions@lists.afpy.org>\n"
"Language: fr\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
"Content-Transfer-Encoding: 8bit\n"
"X-Generator: Poedit 2.2.4\n"
#: library/urllib.robotparser.rst:2
msgid ":mod:`urllib.robotparser` --- Parser for robots.txt"
msgstr ":mod:`urllib.robotparser` — Analyseur de fichiers *robots.txt*"
#: library/urllib.robotparser.rst:10
msgid "**Source code:** :source:`Lib/urllib/robotparser.py`"
msgstr "**Code source :** :source:`Lib/urllib/robotparser.py`"
#: library/urllib.robotparser.rst:20
#, fuzzy
msgid ""
"This module provides a single class, :class:`RobotFileParser`, which answers "
"questions about whether or not a particular user agent can fetch a URL on "
"the web site that published the :file:`robots.txt` file. For more details "
"on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/"
"orig.html."
msgstr ""
"Ce module fournit une simple classe, :class:`RobotFileParser`, qui permet de "
"savoir si un *user-agent* particulier peut accéder à une URL du site web qui "
"a publié ce fichier :file:`robots.txt`. Pour plus de détails sur la "
"structure des fichiers :file:`robots.txt`, voir http://www.robotstxt.org/"
"orig.html."
#: library/urllib.robotparser.rst:28
msgid ""
"This class provides methods to read, parse and answer questions about the :"
"file:`robots.txt` file at *url*."
msgstr ""
"Cette classe fournit des méthodes pour lire, analyser et répondre aux "
"questions à propos du fichier :file:`robots.txt` disponible à l'adresse "
"*url*."
#: library/urllib.robotparser.rst:33
msgid "Sets the URL referring to a :file:`robots.txt` file."
msgstr "Modifie l'URL référençant le fichier :file:`robots.txt`."
#: library/urllib.robotparser.rst:37
msgid "Reads the :file:`robots.txt` URL and feeds it to the parser."
msgstr ""
"Lit le fichier :file:`robots.txt` depuis son URL et envoie le contenu à "
"l'analyseur."
#: library/urllib.robotparser.rst:41
msgid "Parses the lines argument."
msgstr "Analyse les lignes données en argument."
#: library/urllib.robotparser.rst:45
msgid ""
"Returns ``True`` if the *useragent* is allowed to fetch the *url* according "
"to the rules contained in the parsed :file:`robots.txt` file."
msgstr ""
"Renvoie ``True`` si *useragent* est autorisé à accéder à *url* selon les "
"règles contenues dans le fichier :file:`robots.txt` analysé."
#: library/urllib.robotparser.rst:51
msgid ""
"Returns the time the ``robots.txt`` file was last fetched. This is useful "
"for long-running web spiders that need to check for new ``robots.txt`` files "
"periodically."
msgstr ""
"Renvoie le temps auquel le fichier ``robots.txt`` a été téléchargé pour la "
"dernière fois. Cela est utile pour des *web spiders* de longue durée qui "
"doivent vérifier périodiquement si le fichier est mis à jour."
#: library/urllib.robotparser.rst:57
msgid ""
"Sets the time the ``robots.txt`` file was last fetched to the current time."
msgstr ""
"Indique que le fichier ``robots.txt`` a été téléchargé pour la dernière fois "
"au temps courant."
#: library/urllib.robotparser.rst:62
msgid ""
"Returns the value of the ``Crawl-delay`` parameter from ``robots.txt`` for "
"the *useragent* in question. If there is no such parameter or it doesn't "
"apply to the *useragent* specified or the ``robots.txt`` entry for this "
"parameter has invalid syntax, return ``None``."
msgstr ""
"Renvoie la valeur du paramètre ``Crawl-delay`` du ``robots.txt`` pour le "
"*useragent* en question. S'il n'y a pas de tel paramètre ou qu'il ne "
"s'applique pas au *useragent* spécifié ou si l'entrée du ``robots.txt`` pour "
"ce paramètre a une syntaxe invalide, renvoie ``None``."
#: library/urllib.robotparser.rst:71
msgid ""
"Returns the contents of the ``Request-rate`` parameter from ``robots.txt`` "
"as a :term:`named tuple` ``RequestRate(requests, seconds)``. If there is no "
"such parameter or it doesn't apply to the *useragent* specified or the "
"``robots.txt`` entry for this parameter has invalid syntax, return ``None``."
msgstr ""
"Renvoie le contenu du paramètre ``Request-rate`` du ``robots.txt`` sous la "
"forme d'un :term:`named tuple` ``RequestRate(requests, seconds)``. S'il n'y "
"a pas de tel paramètre ou qu'il ne s'applique pas au *useragent* spécifié ou "
"si l'entrée du ``robots.txt`` pour ce paramètre a une syntaxe invalide, "
"``None`` est renvoyé."
#: library/urllib.robotparser.rst:81
msgid ""
"Returns the contents of the ``Sitemap`` parameter from ``robots.txt`` in the "
"form of a :func:`list`. If there is no such parameter or the ``robots.txt`` "
"entry for this parameter has invalid syntax, return ``None``."
msgstr ""
"Renvoie le contenu du paramètre de ``Sitemap`` depuis ``robots.txt`` dans la "
"forme d'une :func:`list`. S'il n'y a pas de tel paramètre ou qu'il ne "
"s'applique pas au *useragent* spécifié ou si l'entrée du ``robots.txt`` pour "
"ce paramètre a une syntaxe invalide, renvoie ``None``."
#: library/urllib.robotparser.rst:89
msgid ""
"The following example demonstrates basic use of the :class:`RobotFileParser` "
"class::"
msgstr ""
"L'exemple suivant présente une utilisation basique de la classe :class:"
"`RobotFileParser` ::"