Un po tutti siamo a conoscenza dei vasti cambiamenti che da qui a 20 o 50 anni avverranno nel settore hardware e software, già oggi stiamo sperimentando questi cambiamenti alquanto frenetici, con l’avvento della tanto bistrattata nextgen, e dei nuovi chip: AMD, Intel ed nVidia.
Si rinnova quindi ogni anno la vecchia legge di Moore, che puntualmente vede ingegneri di tutto il mondo messi a dura prova dalla ricerca di nuovi materiali, o di metodologie di sviluppo che consentano di raggiungere un determinato risultato, non solo sul lato prestazionale, ma anche su quello di consumi/temperatura e miniaturizzazione.
Con una durata decennale (circa) su ogni nuovo set i componenti che il mercato offre, ma vi siete mai chiesti se il reale limite di tale evoluzione non sia di per se relegato alle possibilità, al fine che ci spinge alla ricerca?
E se un bel giorno tutto ciò fosse dimenticato? Se la nostra immaginazione arrivasse al suo culmine? A cosa servirebbe quindi sviluppare ulteriori metodi o materiali, se tutto ciò che potremo pensare o desiderare sarà sempre possibile?
Questo è ciò a cui vorrei rispondere oggi, attraverso piccoli sguardi al passato, al presente, e ad un ipotetico futuro prossimo.
E approfittando della recente news: asta del primo prototipo di microchip.
Andrò quindi ad elencare gli esordi di quella che si può definire “arte della computazione”, che iniziò verso gli anni 70′ con i primi all-in-one IBM/Apple, che all’epoca erano un must sia in fatto di prezzo che in fatto di semplici prestazioni.
Fermo restando che le possibilità dell’epoca erano piuttosto elementari, infatti si puntava al semplice disegno con Paint, o all’intrattenimento Wireframe/Pixel (che era la prima affermazione di quello che sarebbe stato il mercato videoludico), in più se si pensa al fatto che tali macchine discendevano dai primi calcolatori a nastro, la suddetta tesi viene maggiormente avvalorata anche dalle generose dimensioni massime possibili per l’epoca.
Tuttavia già allora il futuro lo si concepiva in maniera radicalmente differente: con astronavi, intelligenze artificiali varie ed intrattenimento a 360°, che con film e serie TV (qualcuno ha detto Ritorno al futuro?) accalcò numerose idee, che ancora oggi sono tenute in considerazione.
Questa era la situazione dal dopoguerra ai primi anni 90′, successivamente prese piede un altro step evoluzionistico, che portò le macchine pre-esistenti a dotarsi di una nuova interfaccia più user friendly, e che permise di mutare le sopracitate “elementari” esigenze, in qualcosa di più frenetico, come ad esempio il multitasking a finestre.
E quindi nuovo software, nuovo hardware, passando così dal mhz al ghz, dal megabyte al gigabyte, da un mondo fine a se stesso ad internet, con la comparsa di moduli per la fruizione (modem), il dopo è la naturale evoluzione del “già esistente”, ovvero: acquisizione, miglioramento e rivisitazione.
E questo dai primi anni 90′ ad oggi, ma il futuro? Perchè è subito chiaro come ciò a cui puntiamo è la trasposizione della realtà nell’astratto, avere il controllo di ciò che ci circonda, e allora quando questi limiti saranno aggirati, cosa ci impedirà di abbandonare tale via? O meglio, dato che con tutta probabilità dovremo abbandonarla, come cambieremo le fondamenta che probabilmente saranno ancora sorrette da questa continua corsa? Perchè quella che può essere una previsione, nasconde in sè anche un problema di natura economica.
Eventualità che risulta una benedizione per alcuni, ed un danno per altri, e voi cosa ne pensate?