Tutti i membri del giornale di bordo 419

Questo sito e' protetto con
Norton Safe Web



La mappa del forum
Ultimi utenti connessi

Vedi altro
Ultime registrazioni

Nuove notifiche

Aggiornamenti

chi e’ connesso

chi e' in linea
Ora sei connesso
Messaggi:
2

scambio banner

Ultime mondo forum


[web] Cos'e un crawler Vedere l'argomento precedente Vedere l'argomento seguente Andare in basso Messaggio [Pagina 1 di 1]

       Argomento  
Condividere
avatar
il Corvo
Adminforum
Adminforum

Web [web] Cos'e un crawler

Messaggio Da il Corvo il Mer 23 Lug 2014, 11:52 am



Cos'e'  crawler

Un crawler (detto anche web crawler spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca.Un crawler è un tipo di bot (programma o script che automatizza delle operazioni). I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.Un uso estremamente comune dei crawler è nel Web. Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale, inizialmente, si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata dai programmatori stessi). Durante l'analisi di un URL, identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare. Il processo può essere concluso manualmente o dopo che un determinato numero di collegamenti è stato seguito.Inoltre i crawler attivi su Internet hanno la facoltà di essere indirizzati da quanto indicato nel file "robots.txt" posto nella root del sito. All'interno di questo file, è possibile indicare quali pagine non dovrebbero essere analizzate. Il crawler ha la facoltà di seguire i consigli, ma non l'obbligo.Ecco di seguito una tabella con i nomi degli spider dei principali motori di ricerca aggiornati al 21 febbraio 2008: Fonte


    La data/ora di oggi è Gio 14 Dic 2017, 1:19 am

    Navigazione veloce