Les directives du robot d'exploration, également appelées directives robots ou directives robots.txt, sont des instructions données aux robots d'exploration ou aux robots des moteurs de recherche pour réguler leur comportement d'exploration sur un site Web. Ces directives sont généralement implémentées via un fichier robots.txt placé dans le répertoire racine d'un site Web et peuvent spécifier quelles parties du site doivent être explorées ou non, ainsi que d'autres contraintes telles que le délai d'exploration.