NO COMMENT
Qualcuno potrebbe legittimamente non averla capita, per cui ve la spiego. I motori di ricercano usano gli spider (dei software) per cercare e catalogare le pagine web. In un sito web, un file chiamato “robots.txt” contiene istruzioni che possono impedire agli spider l’accesso ad alcune pagine del sito (o anche a tutte) per l’indicizzazione nei motori di ricerca. In questo caso, questo file inserito nel sito web governo.it impedisce a qualunque spider (indicato con un asterisco, che non specifica nulla) di accedere ai contenuti di due determinate cartelle.
L’operazione trasparenza è un po’ lacunosa…