Magazine Cultura

Networkology e le reti complesse

Creato il 29 maggio 2011 da Antonio Maccioni

Networkology e le reti complesse“Un ramo della fisica teorica sta cercando di scoprire i principi fondamentali che regolano le reti con cui abbiamo a che fare tutti i giorni, con uno spirito simile a quello dei padri della fisica classica: ridurre a poche leggi semplici e universali la straordinaria diversità delle reti sociali, tecnologiche e biologiche che ci circondano”. Il breve percorso di Andrea Capocci, Networkology, il Saggiatore 2011 – servendosi di alcuni excursus storici e tentando di isolarne le conclusioni più significative – riflette sulla somiglianza delle reti e sulle loro leggi. Se nella seconda metà del Novecento sono stati soprattutto sociologi e matematici a elaborare i modelli teorici delle reti sociali, servendosi delle osservazioni empiriche “gli scienziati si sono accorti che le proprietà delle reti sociali sono presenti in tanti altri ambiti, e il loro studio è divenuto uno degli ambiti di ricerca più fiorenti della fisica statistica”.

Ma dunque: la storia della teoria delle reti complesse nasce con la sociologia, dal momento che in una comunità le persone che si conoscono formano una rete sociale. L’argomento fondamentale sul quale si invita a riflettere risiede nel fatto che le reti sociali reali contengono un alto grado di disordine. Le conoscenze personali dipendono infatti da eventi fortuiti e irripetibili che si muovono al di là di una particolare logica. Pertanto “ci si conosce sulla base di un gradimento reciproco tra due persone e il resto della rete sociale influisce solo in parte sui legami tra gli individui”. Passando per un breve percorso sui sei gradi di separazione e arrivando alla struttura militare della rete Internet, Andrea Capocci mette più volte in evidenza il concetto di fondo in base al quale “se si vuole mandare fuori uso una rete complessa, dunque, occorre scegliere bene i nodi della rete da colpire. Invece di eliminare i nodi in modo casuale, si potrebbe cominciare con quelli più connessi”.

Prima della scoperta delle reti complesse, la diffusione di un comune virus nella rete veniva descritta con modelli omogenei: secondo questi modelli il numero di connessioni di ciascun individuo era sostanzialmente lo stesso per tutti. Ma le reti sociali sono fortemente disomogenee, e se molti nodi hanno poche connessioni, un numero non trascurabile di nodi ha invece un numero di connessioni decisamente maggiore. “Così come le informazioni riescono a raggiungere tutta la rete anche se molti nodi o connessioni sono fuori uso, così i virus riescono a diffondersi in tutta la rete sociale anche se la loro capacità di espansione è limitata”.

Nel 1998 il Web comprendeva circa un milione e mezzo di pagine. I motori di ricerca più diffusi – AltaVista e Yahoo! – erano basati su un software che girava per la rete e catalogava le pagine web secondo parole e rilevanza; si affidavano a utenti che navigavano e valutavano le pagine secondo contenuti e qualità. “In entrambi i casi, la ricerca dava molti risultati inutili, che andavano visitati e scartati prima di arrivare all’informazione cercata”. Con l’arrivo di Google, del PageRank e degli hub, AltaVista e Yahoo! – che ispezionavano il testo nelle pagine e cercavano di capirne il significato senza considerare il fatto che i documenti erano collegati tra loro e formavano una rete – divennero praticamente inservibili per la massa degli utenti. Ci si è resi conto che, come nei frattali, ogni regione del Web ha le stesse proprietà dell’intera Rete: allora se il successo di Google è dovuto alla Rete, sarà la Rete stessa a deciderne il tramonto.

Quando il governo americano – dopo la bancarotta della Lehman Brothers – sostenne che alcuni istituti finanziari erano too big to fail, ovvero troppo grandi per fallire, non fece altro che mettere in pratica il concetto degli hub, e “se nello staff dei consiglieri scientifici del presidente vi fosse uno specialista di teoria delle reti complesse, approverebbe la decisione”. Le reti complesse mantengono infatti la loro connettività anche se una parte dei nodi scelta a caso viene rimossa. Se vengono però eliminati i nodi più importanti – ovvero i nodi con un numero elevato di connessioni – la stessa rete si frammenta in molte componenti sconnesse tra loro. Così la chiave è sempre la stessa: le reti complesse potrebbero diventare il punto di partenza per una nuova comprensione della linguistica, della Grammatica Universale, della biologia molecolare.

“Anche il buon funzionamento della rete Internet dipende da quello della rete elettrica, e a sua volta influenza l’efficienza del World Wide Web. Dunque, molte reti sono a loro volta nodi di una rete che le ingloba a un livello superiore. Lo studio delle interazioni tra le reti è uno degli ambiti di ricerca più promettenti, e già ha fornito risultati sorprendenti. Ad esempio, Elizabeth A. Leicht e Raissa M. D’Souza hanno dimostrato al livello teorico che la complessità che rende una rete particolarmente resistente in caso di malfunzionamenti ha un effetto opposto in una rete che interagisce con altre, e ne aumenta la vulnerabilità”.


Potrebbero interessarti anche :

Ritornare alla prima pagina di Logo Paperblog

Possono interessarti anche questi articoli :

Magazine