Quando ero un ragazzino ero una specie di pecora nera informatica. Ero l’unico ad avere un Mac e l’idea di difendere questa “scelta” sembrava una questione d’onore e rispetto, come se un’azienda a migliaia di chilometri di distanza avesse bisogno della mia spada e del mio coraggio per penetrare le lande oscure del mondo (in effetti a quei tempi un po’ ne aveva bisogno, ma di certo non ero la persona adatta).
Lo facevo nel mio piccolo e nella mia (limitata) conoscenza anche in maniera parecchio decisa. Poi sono cresciuto e ho iniziato a pensare che ci sono 10 tipi di persone: quelle che contemplano i diritti di lettura/scrittura (ci si puo’ ragionare) e quelle che sono solo in lettura (una cosa che certamente non è limitata al solo mondo dell’informatica). Così la mia battaglia si è ridimensionata (parecchio) e ora vado in giro senza questa “armatura” blaterando un po’ sul perchè e il percome fino a quando non inquadro chi mi trovo davanti; da li poi le cose sono due: o continuiamo a discutere perchè, che siamo d’accordo o meno è una bella discussione, oppure tronco la discussione e magari se c’è bisogno mi prodigo anche in qualche contentino (caso più probabile).
Ma perchè dico questo? Perchè ultimamente si sta riproponendo una battaglia epica tra le forze del bene e del male (informatiche): questa volta la parte del bene la fa Google e quella del male la fa Apple (prima era il contrario, o almeno così s’era capito)
. C’è Android e c’è iPhone OS, e quando se ne parla spesso lo si fa usando i toni di una guerra all’ultimo sangue. Tanto è stata pompata questa cosa che ormai i cosiddetti fanboy si sono già schierati sul campo armi in mano.In effetti è impossibile negare il fatto che ci sia una certa competizione tra le due piattaforme, pur tuttavia si tratta di una rivalità limitata dal fatto che Android (deve/vuole) essere ovunque (“everywhere”, come fu per Windows, ma questa volta il core businness è l’advertising e non gli OS) mentre per iPhone OS la scelta è stata del tutto simile a quanto viene fatto su desktop, ovvero quella di legare hardware e software (per un modello che, tra gli addetti ai lavori, è chiamato “everywhere good”).
Se non consideriamo il trend di frammentazione del software in ambito mobile come qualcosa di duraturo (su TechCrunch c’è un interessante articolo in merito, magari ci ritorneremo) è probabile che i numeri di Android siano destinati a crescere nel lungo periodo più di quelli di iPhone OS. Ovviamente si tratta di una previsione troppo semplicistica, ma per quello che ci interessa è sufficiente.
E dunque come mai ad Android viene spesso (in ambito geek ovviamente, qui non si sta parlando di gente ‘normale’) affibiata la targhetta di paladino del bene? La ragione più immediata è sicuramente dettata dal fatto di essere libero ed aperto. Libero, perché può essere installato in una molteplicità di dispositivi anche molto diversi tra loro (con tutto quello che ne consegue, nel bene e nel male) senza bisogno di pagare royalties; aperto perché il codice è opensource e può essere modificato a proprio piacimento senza sottostare alle regole del produttore.
Ma perché c’era bisogno che avesse proprio entrambe queste caratteristiche? La risposta è immediata e non va certamente ricercata nel motto di Google “don’t be evil” (che, a proposito, dopo aver iniziato a perdere colpi è stato abbandonato silenziosamente lo scorso anno) o in una presunta volontà di rendere il mondo un posto migliore (spesso ci si dimentica che è di aziende che stiamo parlando, lo ricordo ai fanboy in ascolto). La scelta di Google è stata per certi versi un’azione obbligata: si è reso necessario creare qualcosa che non intimorisse i produttori di smartphone: dopo essere state legate per anni alle licenze di Microsoft con Windows Mobile, poche di loro si sarebbero tuffate (nuovamente e con convinzione) da un cappio ad un altro solo perché il logo di Google era colorato. Se ci aggiungiamo la possibilità di creare una propria variante (e questo vale, a maggior ragione, con gli operatori network, ancora sconvolti dalla recente esclusione dal business della configurazione personalizzata dei device) senza dover rendere conto a niente e nessuno, il gioco è fatto.
A che serve allora? Come ho già accennato poco sopra lo scopo di Google non è quello di fare soldi vendendo sistemi operativi; il loro core business è la pubblicità e la pubblicità nel settore mobile è ancora un mercato piuttosto vergine, senza regole e messo in piedi in fretta e furia con un metodo che non convince sul serio (basta fare mente locale sugli ad di AdMob per capire l’idea di portare l’ad desktop sul mobile non può essere un trasferimento indolore, nella stessa misura in cui era folle portare -in scala- l’interfaccia di Windows desktop su uno schermo da una manciata di pollici): è di vitale importanza che Google riesca ad entrare con convinzione in quello che molto probabilmente sarà uno dei cardini economici dei prossimi anni (informaticamente parlando). Far si che Android sia ovunque permetterà a Google di piazzare ovunque i suoi Ad, dando la possibilità (in futuro) di dettare la propria legge nella stessa misura in cui sta facendo Apple oggi con iPhone OS. E quindi inutile mettersi a spada tratta da una parte e dall’altra convinti che ci debba essere per forza un’armata del bene e una del male.
A proposito di Apple. Qualcuno si è chiesto se la storia del paragrafo 3.3.1 della nuova licenza per gli sviluppatori fosse una scelta più o meno sbagliata. In giro ho trovate molte discussioni a proposito, troppo sbilanciate sia da un verso che dall’altro. Personalmente, da sviluppatore, non la condivido molto, ma posso comunque tentare di spiegarla senza necessariamente ricorrere a moralistiche congetture.
Sarebbe quindi la società che gestisce questa sorta di meta-piattaforma (nel caso di Flash Adobe – abbiamo già visto nello scorso post quello che fece in una situazione simile la società di San Jose) a dettare le nuove funzionalità dell’OS. Questo ci porta al secondo fatto: una scelta del genere farebbe si che le tecnologie specifiche realizzate per la piattaforma non sarebbero adottate (o lo sarebbero con un lasso di tempo del tutto arbitrario, deciso a discrezione del gestore della meta-piattaforma) perché dovrebbero essere prima implementate a livello superiore (diciamo che più o meno quello che sarebbero successo se Java avesse preso piede in ambito desktop).
Che poi Flash possa essere anche un intralcio allo store e venga esclusa è un’altra storia e ci può pure stare (anche se dio ce ne scampi, la roba fatta con Flash, Java, REALBasic e altri tool simili si riconos
ce a chilometri di distanza, e non certo per la loro innata bellezza).
La scelta di escludere layer intermedi è una politica del tutto normale per chi può permettersela; non serve ricordare cosa successe tra Microsoft e Sun ai tempi di Java.
E’ brutto, da sviluppatore non la condivido però tant’è. Non serve farne una questione di vita e di morte, tra l’altro se si va a guardare il discorso soldi/formazione gli sviluppatori potrebbero anche essere felici, essendo il loro lavoro di formazione specifica premiato e più ricercato (in un mondo ideale le cose dovrebbero essere fatte sempre bene; in un mondo reale se si può fare male, presto e per tutto, lo si fa senza troppi problemi e senza guardare la soddisfazione del cliente).