Che cosa sono i pixel e la codifica ASCII e quella Unicode?

Creato il 08 maggio 2014 da D4rkid @ipertutti

Dopo aver visto nel precedente articolo che cos’è il sistema binario e che differenza c’è tra bit e byte, in questo articolo cercherò di spiegare prima che cosa sono i pixel e dopo che cosa sono la codifica ASCII e quella Unicode.

Che cosa sono i pixel?

In un computer, un’immagine digitale viene rappresentata mediante l’uso di una griglia invisibile che ha milioni di piccoli quadratini ognuno dei quali viene chiamato pixel:

Ad esempio un’immagine che è larga 1.920 colonne ed è alta 1.080 righe significa che avrà

1.920 x 1.080 = 2.073.600 pixel (cioè 2,1 megapixel)

Questa si chiama risoluzione dell’immagine ed è utilizzata per misurare la qualità dell’immagine stessa. Nelle immagini a colori, ognuno di questi pixel, ha la sua luminosità ed il suo colore rappresentati mediante l’utilizzo di tre colori fondamentali che sono il rosso (Red), il verde (Green) ed il blu (Blue) ovvero RGB.
Quindi, maggiore è la quantità di pixel che rappresentano un’immagine, maggiore sarà la qualità dell’immagine…

…ma anche la dimensione del file. Per cercare di risolvere questo problema, si utilizzano delle tecniche particolari che comprimono la dimensione del file senza perdere però molta qualità. Esistono diverse tecniche di compressione per le immagini ma quelle più utilizzate prendono il nome di jpeg (jpg), bitmap (bmp) e gif, riconoscibili mediante l’estensione del file, cioè delle tre lettere che seguono il nome del file dopo il punto: ad esempio Arcobaleno.jpg indica che l’estensione del file che ha il nome di Arcobaleno è jpg.
Oltre a jpeg, bitmap e gif, esistono molte altre tipologie di estensione e di solito vengono nascoste per evitare di essere accidentalmente cambiate.

ASCII

Siccome 1 byte è formato da 8 bit, con 1 byte è possibile rappresentare 256 valori (cioè 28) che vanno da 0 a 255. Mediante queste 256 combinazioni è possibile creare un alfabeto composto da cifre decimali, lettere (maiuscole e minuscole), simboli (matematici e non), segni di punteggiatura, eccetera. Questo alfabeto prende il nome di codifica ASCII ed è diviso in due gruppi da 128 valori ciascuno: il primo gruppo viene chiamato standard mentre il secondo esteso.

Unicode

Oltre alla codifica ASCII ne esistono molte altre ma, purtroppo, tra le centinaia di codifiche, non ne esiste una con tutti i caratteri necessari per una determinata lingua, infatti anche per l’italiano ce ne vuole più di una. Oltre a questo può accadere anche che due codifiche utilizzino lo stesso numero per rappresentare caratteri completamente differenti o magari vengono utilizzati numeri diversi per rappresentare uno stesso carattere. Per risolvere questi ed altri problemi, è stata creata un’altra codifica chiamata Unicode che, al contrario della codifica ASCII, utilizza 2 byte per rappresentare un carattere, quindi 65.536 valori (cioè 216) che vanno da 0 a 65.535. Grazie alla codifica Unicode, i caratteri possono essere usati in più lingue con lo stesso codice numerico, permettendo così di eliminare qualsiasi tipo di ambiguità.