CODICE ASCII e UNICODE.....?????

Sapreste spiegarmi per bene che cos'è il codice ascii e l'unicode e la differenza tra i due??Grazie mille :))))

3 risposte

Classificazione
  • 8 anni fa
    Migliore risposta

    - È un sistema di codifica dei caratteri a 8 bit comunemente utilizzato nei calcolatori. Identifica una sequenza di caratteri alcuni dei quali non sono stampabili. In pratica ad ogni bit corrisponde uno specifico simbolo da tastiera. Tali simboli sono ben descritti nella tabella ASCII che ad ogni bit associa un univoco simbolo (vedi link).

    Invece Unicode è un sistema di codifica che assegna un numero univoco ad ogni carattere usato per la scrittura di testi, in maniera indipendente dalla lingua, dalla piattaforma informatica e dal programma utilizzati.

    Attualmente lo standard Unicode non rappresenta ancora tutti i caratteri in uso nel mondo. Essendo ancora in evoluzione, si prefigge di coprire tutti i caratteri rappresentabili, garantendo la compatibilità e la non sovrapposizione con le codifiche dei caratteri già definiti, ma lasciando comunque dei ben precisi campi di codici "non usati", da riservare per la gestione autonoma all'interno di applicazioni particolari.

    L'Unicode viene supportato dai moderni standard della programmazione e del markup come XML, Java, JavaScript, ed è questa una delle maggiori differenze con ASCII. Il tipo di codice attualmente più utilizzato è l'UTF-8

  • 8 anni fa

    Sono due tabelle (in gergo si chiamano "codifiche") che associano un numero a un simbolo dell'alfabeto, come le lettere, i segni di punteggiatura, i segni di spaziatura, ecc.

    Nel caso dell'ASCII, il numero corrisponde al byte. L'ASCII è una codifica a 7 bit, cioè per rappresentare un simbolo si usa sempre un byte con il primo bit costante (sempre impostato a 0). Permette di rappresentare max 128 caratteri, che sono quelli che trovi qui

    http://commons.wikimedia.org/wiki/File:ASCII_Code_...

    Però 128 erano troppo pochi, così vennero le estensioni dell'ASCII. Ognuna di queste estensioni

    - equivale all'ASCII quando il primo bit del carattere vale 0

    - imposta nuovi caratteri personalizzati quando il primo bit vale 1

    Quindi venne un'estensione per i caratteri greci, una per i caratteri dell'alfabeto latino, ecc. Uno stesso byte (codice di 1 + 7 bit = 256 combinazioni) ha significati diversi se letto con ciascuna di queste estensioni.

    L'incompatibilità creava problemi, e inoltre 256 caratteri erano ancora troppo pochi (pensa alle lingue che usano ideogrammi invece che lettere...) così venne l'Unicode. Questa è una tabella MOLTO più vasta, che copre un'infinità di caratteri e segni diacritici in più. Inoltre, i primi 128 caratteri Unicode sono esattamente gli stessi dell'ASCII. Ciò vuol dire che ogni testo ASCII è anche un testo Unicode.

    Nel caso dell'ASCII, il codice di un carattere corrisponde al byte che viene inserito nel testo per rappresentare quel carattere. Per es. se devo scrivere il testo "ma", devo scrivere i due byte <6D><61> uno dopo l'altro (guarda la tabella che ho linkato sopra).

    Invece, l'Unicode funziona in modo diverso. Associa un numero ad ogni carattere, ma poi c'è bisogno di una seconda conversione da numero a byte. Anzi, da numero a sequenza di byte, perché per rappresentare più di 256 numeri c'è bisogno di più di un byte. Quindi, sono nate le codifiche UTF-8, UTF-16, UTF-32, ecc.

    ---------

    @uddessoc: anche ASCII è indipendente dalla lingua, dalla piattaforma e dal programma utilizzati. Quelli che non sono indipendenti sono le estensioni dell'ASCII (ISO-Latin-1 ecc. vedi per es.

    http://it.wikipedia.org/wiki/ISO_8859

    )

    Fonte/i: Tutti gli approfondimenti su Wikipedia.
Altre domande? Fai una domanda e ottieni le risposte che cerchi.