Contacts

Valeurs de code binaire. Code binaire. Nombre binaire en complément à deux signé

08. 06.2018

Blog de Dmitri Vassiyarov.

Code binaire : où et comment est-il utilisé ?

Aujourd'hui, je suis particulièrement heureux de vous rencontrer, mes chers lecteurs, car je me sens comme un professeur qui, dès le premier cours, commence à initier la classe aux lettres et aux chiffres. Et puisque nous vivons dans un monde de technologie numérique, je vais vous dire ce qu'est le code binaire, quelle est leur base.

Commençons par la terminologie et découvrons ce que signifie binaire. Pour plus de précision, revenons à notre calcul habituel, qui est dit « décimal ». Autrement dit, nous utilisons 10 chiffres, ce qui permet d'opérer facilement avec différents nombres et de conserver les enregistrements appropriés.

Suivant cette logique, le système binaire prévoit l'utilisation de seulement deux caractères. Dans notre cas, ce sont juste « 0 » (zéro) et « 1 » un. Et ici je tiens à vous prévenir qu'hypothétiquement il pourrait y avoir d'autres symboles à leur place, mais ce sont précisément ces valeurs, indiquant l'absence (0, vide) et la présence d'un signal (1 ou « stick »), qui aideront nous comprenons mieux la structure du code binaire.

Pourquoi le code binaire est-il nécessaire ?

Avant l'avènement des ordinateurs, on utilisait divers systèmes automatiques dont le principe de fonctionnement reposait sur la réception d'un signal. Le capteur est déclenché, le circuit est fermé et un certain appareil est allumé. Aucun courant dans le circuit de signal - aucune opération. Ce sont les appareils électroniques qui ont permis de progresser dans le traitement de l'information représentée par la présence ou l'absence de tension dans un circuit.

Leur complication supplémentaire a conduit à l'émergence des premiers processeurs, qui ont également fait leur travail en traitant un signal constitué d'impulsions alternées d'une certaine manière. Nous n'entrerons pas dans les détails du programme maintenant, mais ce qui suit est important pour nous : les appareils électroniques se sont avérés capables de distinguer une séquence donnée de signaux entrants. Bien sûr, il est possible de décrire la combinaison conditionnelle de cette façon : « il y a un signal » ; "pas de signal"; « il y a un signal » ; "il y a un signal." Vous pouvez même simplifier la notation : « il y a » ; "Non"; "Il y a"; "Il y a".

Mais il est beaucoup plus facile de désigner la présence d'un signal par l'unité « 1 » et son absence par un zéro « 0 ». Ensuite, nous pouvons utiliser à la place un code binaire simple et concis : 1011.

Bien sûr, la technologie des processeurs a beaucoup progressé et les puces sont désormais capables de percevoir non seulement une séquence de signaux, mais aussi des programmes entiers écrits avec des commandes spécifiques composées de caractères individuels.

Mais pour les enregistrer, on utilise le même code binaire, composé de zéros et de uns, correspondant à la présence ou à l'absence d'un signal. Qu’il existe ou non, cela n’a pas d’importance. Pour une puce, chacune de ces options constitue une seule information, appelée « bit » (le bit est l’unité de mesure officielle).

Classiquement, un symbole peut être codé comme une séquence de plusieurs caractères. Deux signaux (ou leur absence) ne peuvent décrire que quatre options : 00 ; 01;10; 11. Cette méthode de codage est appelée deux bits. Mais cela peut aussi être :

  • Quatre bits (comme dans l'exemple du paragraphe ci-dessus 1011) vous permettent d'écrire 2^4 = 16 combinaisons de symboles ;
  • Huit bits (par exemple : 0101 0011 ; 0111 0001). À une certaine époque, il présentait le plus grand intérêt pour la programmation car il couvrait 2 ^ 8 = 256 valeurs. Cela a permis de décrire tous les chiffres décimaux, l'alphabet latin et les caractères spéciaux ;
  • Seize bits (1100 1001 0110 1010) et plus. Mais les enregistrements d'une telle longueur sont déjà destinés à des tâches modernes et plus complexes. Les processeurs modernes utilisent une architecture 32 et 64 bits ;

Franchement, il n'existe pas de version officielle unique, mais il se trouve que c'est la combinaison de huit caractères qui est devenue la mesure standard des informations stockées appelée « octet ». Cela pourrait être appliqué même à une lettre écrite en code binaire de 8 bits. Alors, mes chers amis, n’oubliez pas (si quelqu’un ne le sait pas) :

8 bits = 1 octet.

C'est comme ça. Bien qu'un caractère écrit avec une valeur de 2 ou 32 bits puisse également être appelé nominalement un octet. D'ailleurs, grâce au code binaire, nous pouvons estimer le volume de fichiers mesuré en octets et la vitesse de transmission des informations et d'Internet (bits par seconde).

L'encodage binaire en action

Pour standardiser l'enregistrement des informations pour les ordinateurs, plusieurs systèmes de codage ont été développés, dont l'un, ASCII, basé sur l'enregistrement 8 bits, s'est généralisé. Les valeurs qu'il contient sont réparties d'une manière particulière :

  • les 31 premiers caractères sont des caractères de contrôle (de 00000000 à 00011111). Servir aux commandes de service, à la sortie sur une imprimante ou à un écran, aux signaux sonores, au formatage de texte ;
  • les suivants de 32 à 127 (00100000 – 01111111) alphabet latin et symboles auxiliaires et signes de ponctuation ;
  • le reste, jusqu'au 255ème (10000000 – 11111111) – alternative, partie du tableau pour les tâches spéciales et l'affichage des alphabets nationaux ;

Le décodage des valeurs qu'il contient est indiqué dans le tableau.

Si vous pensez que « 0 » et « 1 » sont situés dans un ordre chaotique, alors vous vous trompez profondément. En utilisant n’importe quel nombre comme exemple, je vais vous montrer un modèle et vous apprendre à lire les nombres écrits en code binaire. Mais pour cela nous accepterons quelques conventions :

  • On va lire un octet de 8 caractères de droite à gauche ;
  • Si dans les nombres ordinaires nous utilisons les chiffres des uns, des dizaines, des centaines, alors ici (lecture dans l'ordre inverse) pour chaque bit différentes puissances de « deux » sont représentées : 256-124-64-32-16-8- 4-2 -1;
  • Examinons maintenant le code binaire du nombre, par exemple 00011011. Là où il y a un signal « 1 » dans la position correspondante, nous prenons les valeurs de ce bit et les résumons de la manière habituelle. En conséquence : 0+0+0+32+16+0+2+1 = 51. Vous pouvez vérifier l'exactitude de cette méthode en consultant la table des codes.

Maintenant, mes amis curieux, vous savez non seulement ce qu'est le code binaire, mais vous savez également comment convertir les informations cryptées par celui-ci.

Langage compréhensible par la technologie moderne

Bien entendu, l'algorithme de lecture du code binaire par les processeurs est beaucoup plus compliqué. Mais vous pouvez l'utiliser pour écrire tout ce que vous voulez :

  • Informations textuelles avec options de formatage ;
  • Les nombres et toutes les opérations avec eux ;
  • Images graphiques et vidéo ;
  • Les sons, y compris ceux situés au-delà de notre portée auditive ;

De plus, en raison de la simplicité de la « présentation », différentes manières d'enregistrer des informations binaires sont possibles :

  • En modifiant le champ magnétique de ;
  • Les avantages du codage binaire sont complétés par des possibilités presque illimitées de transmission d'informations sur n'importe quelle distance. C'est la méthode de communication utilisée avec les engins spatiaux et les satellites artificiels.

    Ainsi, aujourd’hui, le système de nombres binaires est un langage compris par la plupart des appareils électroniques que nous utilisons. Et ce qui est le plus intéressant, c’est qu’aucune autre alternative n’est envisagée pour l’instant.

    Je pense que les informations que j'ai présentées seront tout à fait suffisantes pour que vous puissiez commencer. Et puis, si un tel besoin s'en fait sentir, chacun pourra approfondir une étude indépendante de ce sujet.

    Je vous dirai au revoir et après une courte pause je vous préparerai un nouvel article sur mon blog sur un sujet intéressant.

    C'est mieux si tu me le dis toi-même ;)

    À bientôt.

    Si vous souhaitez apprendre à lire les nombres binaires, il est important de comprendre comment fonctionnent les nombres binaires. Le système binaire est connu sous le nom de système de numérotation « base 2 », ce qui signifie qu'il existe deux nombres possibles pour chaque chiffre ; un ou zéro. Les grands nombres sont écrits en ajoutant des uns ou des zéros binaires supplémentaires.



    Comprendre les nombres binaires


    Savoir lire les fichiers binaires n’est pas essentiel pour utiliser un ordinateur. Mais il est bon de comprendre le concept pour mieux comprendre comment les ordinateurs stockent les nombres en mémoire. Il vous permet également de comprendre des termes tels que 16 bits, 32 bits, 64 bits et des mesures de mémoire telles que les octets (8 bits).



    « Lire » un code binaire signifie généralement convertir le nombre binaire en nombre de base 10 (décimal) que les gens connaissent. Cette conversion est assez facile à faire dans votre tête une fois que vous avez compris comment fonctionne un langage binaire.

    Chaque chiffre d'un nombre binaire a une signification spécifique, sauf si le chiffre est zéro. Une fois que vous avez déterminé toutes ces valeurs, il vous suffit de les additionner pour obtenir la valeur décimale à 10 chiffres du nombre binaire. Pour voir comment cela fonctionne, prenons le nombre binaire 11001010.


    1. La meilleure façon de lire un nombre binaire est de commencer par le chiffre le plus à droite et de continuer vers la gauche. La force de ce premier emplacement est nulle, c'est-à-dire que la valeur de ce chiffre, s'il n'est pas nul, est égale à deux puissances de zéro ou un. Dans ce cas, puisque le chiffre est zéro, la valeur pour cet emplacement sera zéro.



    2. Passez ensuite au chiffre suivant. Si c'est un, calculez deux à la puissance un. Notez cette valeur. Dans cet exemple, la valeur est une puissance de deux égale à deux.



    3. Continuez à répéter ce processus jusqu'à ce que vous atteigniez le numéro le plus à gauche.



    4. Pour finir, il suffit d’additionner tous ces nombres pour obtenir la valeur décimale totale du nombre binaire : 128 + 64 + 0 + 0 + 8 + 0 + 2 + 0 = 202 .


    La note: Une autre façon de voir l’ensemble de ce processus sous forme d’équation est la suivante : 1 x 2 7 + 1 x 2 6 + 0 x 2 5 + 0 x 2 4 + 1 x 2 3 + 0 x 2 2 + 1 x 2 1 + 0 x 2 0 = 20.


    Nombres binaires avec signature


    La méthode ci-dessus fonctionne pour les nombres binaires de base non signés. Cependant, les ordinateurs ont besoin d’un moyen de représenter les nombres négatifs également en utilisant du code binaire.


    Pour cette raison, les ordinateurs utilisent des nombres binaires signés. Dans ce type de système, le chiffre le plus à gauche est appelé bit de signe et les chiffres restants sont appelés bits d'amplitude.


    La lecture d’un nombre binaire signé est presque la même que celle d’un nombre non signé, avec une petite différence.


    1. Suivez la même procédure que ci-dessus pour un nombre binaire non signé, mais arrêtez-vous une fois que vous atteignez le bit le plus à gauche.



    2. Pour déterminer le signe, regardez le bit le plus à gauche. Si c’est un, alors le nombre est négatif. S'il est nul, alors le nombre est positif.



    3. Faites maintenant les mêmes calculs que précédemment, mais appliquez le signe approprié au nombre indiqué par le bit le plus à gauche : 64 + 0 + 0 + 8 + 0 + 2 + 0 = -74 .


    4. La méthode binaire signée permet aux ordinateurs de représenter des nombres positifs ou négatifs. Cependant, il consomme le bit de début, ce qui signifie que les grands nombres nécessitent légèrement plus de mémoire que les nombres binaires non signés.

    Cette leçon couvrira le sujet « Encodage des informations. Codage binaire. Unités de mesure de l'information. Au cours de cette session, les utilisateurs pourront comprendre le codage de l'information, la manière dont les ordinateurs perçoivent l'information, les unités de mesure et le codage binaire.

    Sujet:Informations autour de nous

    Leçon : Codage de l'information. Codage binaire. Unités d'information

    Cette leçon couvrira les questions suivantes :

    1. Le codage comme changement dans la forme de présentation de l'information.

    2. Comment un ordinateur reconnaît-il les informations ?

    3. Comment mesurer l’information ?

    4. Unités de mesure de l'information.

    Dans le monde des codes

    Pourquoi les gens codent-ils des informations ?

    1. Cachez-le aux autres (cryptographie miroir de Léonard de Vinci, cryptage militaire).

    2. Notez les informations de manière brève (sténographie, abréviation, panneaux de signalisation).

    3. Pour faciliter le traitement et la transmission (code Morse, traduction en signaux électriques - codes machine).

    Codage est la représentation d’informations à l’aide d’un code.

    Code est un système de symboles pour présenter des informations.

    Méthodes de codage des informations

    1. Graphique (voir Fig. 1) (à l'aide de dessins et de signes).

    Riz. 1. Système de drapeaux de signalisation (Source)

    2. Numérique (en utilisant des chiffres).

    Par exemple : 11001111 11100101.

    3. Symbolique (en utilisant des symboles alphabétiques).

    Par exemple : NKMBM CHGYOU.

    Décodage est une action visant à restaurer la forme originale de présentation de l'information. Pour décoder, vous devez connaître le code et les règles d’encodage.

    Le moyen de codage et de décodage est la table de correspondance des codes. Par exemple, la correspondance dans divers systèmes numériques est 24 - XXIV, la correspondance de l'alphabet avec n'importe quel symbole (Fig. 2).


    Riz. 2. Exemple de chiffrement (Source)

    Exemples de codage d'informations

    Un exemple de codage d’informations est le code Morse (voir Figure 3).

    Riz. 3. Code Morse ()

    Le code Morse utilise seulement 2 symboles : un point et un tiret (son court et long).

    Un autre exemple de codage d'informations est l'alphabet du drapeau (voir Fig. 4).

    Riz. 4. Alphabet du drapeau ()

    Un autre exemple est l'alphabet des drapeaux (voir Fig. 5).

    Riz. 5. ABC des drapeaux ()

    Un exemple bien connu de codage est l’alphabet musical (voir Fig. 6).

    Riz. 6. Alphabet musical ()

    Considérez le problème suivant :

    À l'aide du tableau de l'alphabet des drapeaux (voir Fig. 7), il est nécessaire de résoudre le problème suivant :

    Riz. 7

    Le lieutenant Lom passe l'examen auprès du capitaine Vrungel. Aidez-le à lire le texte suivant (voir Figure 8) :

    Il y a principalement deux signaux autour de nous, par exemple :

    Feu de circulation : rouge - vert ;

    Question : oui - non ;

    Lampe : allumée - éteinte ;

    C’est possible – ce n’est pas possible ;

    Bon mauvais;

    La vérité est un mensonge ;

    Aller et retour;

    Oui Non;

    Ce sont tous des signaux indiquant la quantité d'informations dans 1 bit.

    1 peu - c'est la quantité d'informations qui nous permet de choisir une option parmi deux possibles.

    Ordinateur est une machine électrique qui fonctionne sur des circuits électroniques. Pour que l'ordinateur reconnaisse et comprenne les informations saisies, celles-ci doivent être traduites en langage informatique (machine).

    L'algorithme destiné à l'interprète doit être écrit, c'est-à-dire codé, dans un langage compréhensible par l'ordinateur.

    Ce sont des signaux électriques : le courant passe ou le courant ne passe pas.

    Langage binaire machine - une séquence de "0" et "1". Chaque nombre binaire peut avoir la valeur 0 ou 1.

    Chaque chiffre d'un code binaire machine contient une quantité d'informations égale à 1 bit.

    Le nombre binaire qui représente la plus petite unité d'information s'appelle b il . Un bit peut prendre la valeur soit 0, soit 1. La présence d'un signal magnétique ou électronique dans un ordinateur signifie 1, l'absence de 0.

    Une chaîne de 8 bits s'appelle b IL . L'ordinateur traite cette chaîne comme un caractère distinct (chiffre, lettre).

    Regardons un exemple. Le mot ALICE est composé de 5 lettres, dont chacune est représentée en langage informatique par un octet (voir Fig. 10). Par conséquent, Alice peut être mesurée sur 5 octets.

    Riz. 10. Code binaire (source)

    En plus des bits et des octets, il existe d'autres unités d'information.

    Bibliographie

    1. Bosova L.L. Informatique et TIC : Manuel pour la 5e année. - M. : BINOM. Laboratoire de connaissances, 2012.

    2. Bosova L.L. Informatique : Cahier d'exercices pour la 5e année. - M. : BINOM. Laboratoire de connaissances, 2010.

    3. Bosova L.L., Bosova A.Yu. Cours d'informatique de la 5e à la 6e année : Manuel méthodologique. - M. : BINOM. Laboratoire de connaissances, 2010.

    2. Festival "Leçon Ouverte" ().

    Devoirs

    1. §1.6, 1.7 (Bosova L.L. Informatique et TIC : manuel pour la 5e année).

    2. Pages 28, tâches 1, 4 ; page 30, tâches 1, 4, 5, 6 (Bosova L.L. Informatique et TIC : manuel pour la 5e année).

    L'ensemble de caractères avec lequel le texte est écrit est appelé alphabet.

    Le nombre de caractères de l'alphabet est son pouvoir.

    Formule pour déterminer la quantité d'informations : N=2b,

    où N est la puissance de l'alphabet (nombre de caractères),

    b – nombre de bits (poids informationnel du symbole).

    L'alphabet d'une capacité de 256 caractères peut accueillir presque tous les caractères nécessaires. Cet alphabet s'appelle suffisant.

    Parce que 256 = 2 8, alors le poids de 1 caractère est de 8 bits.

    L'unité de mesure 8 bits a reçu le nom 1 octet :

    1 octet = 8 bits.

    Le code binaire de chaque caractère du texte informatique occupe 1 octet de mémoire.

    Comment les informations textuelles sont-elles représentées dans la mémoire de l’ordinateur ?

    La commodité du codage de caractères octet par octet est évidente car un octet est la plus petite partie adressable de la mémoire et, par conséquent, le processeur peut accéder à chaque caractère séparément lors du traitement du texte. En revanche, 256 caractères sont un nombre tout à fait suffisant pour représenter une grande variété d’informations symboliques.

    La question se pose maintenant de savoir quel code binaire de huit bits attribuer à chaque caractère.

    Il est clair qu'il s'agit d'une question conditionnelle, vous pouvez proposer de nombreuses méthodes de codage.

    Tous les caractères de l'alphabet informatique sont numérotés de 0 à 255. Chaque numéro correspond à un code binaire de huit bits allant de 00000000 à 11111111. Ce code est simplement le numéro de série du caractère dans le système de numérotation binaire.

    Une table dans laquelle tous les caractères de l'alphabet informatique se voient attribuer des numéros de série est appelée table de codage.

    Différents types d'ordinateurs utilisent différentes tables de codage.

    La table est devenue la norme internationale pour les PC ASCII(lire aski) (American Standard Code for Information Interchange).

    La table des codes ASCII est divisée en deux parties.

    Seule la première moitié du tableau constitue la norme internationale, c'est-à-dire symboles avec des chiffres de 0 (00000000), jusqu'à 127 (01111111).

    Structure de la table de codage ASCII

    Numéro de série

    Code

    Symbole

    0 - 31

    00000000 - 00011111

    Les symboles comportant des nombres de 0 à 31 sont généralement appelés symboles de contrôle.
    Leur fonction est de contrôler le processus d'affichage du texte à l'écran ou d'impression, d'émettre un signal sonore, de baliser le texte, etc.

    32 - 127

    00100000 - 01111111

    Partie standard du tableau (anglais). Cela inclut les lettres minuscules et majuscules de l’alphabet latin, les nombres décimaux, les signes de ponctuation, toutes sortes de parenthèses, les symboles commerciaux et autres.
    Le caractère 32 est un espace, c'est-à-dire position vide dans le texte.
    Tous les autres se traduisent par certains signes.

    128 - 255

    10000000 - 11111111

    Partie alternative du tableau (russe).
    La seconde moitié de la table de codes ASCII, appelée page de codes (128 codes, commençant par 1 000 000 et se terminant par 1 111 1111), peut avoir différentes options, chaque option ayant son propre numéro.
    La page de codes est principalement utilisée pour prendre en charge les alphabets nationaux autres que le latin. Dans les codages nationaux russes, les caractères de l'alphabet russe sont placés dans cette partie du tableau.

    Première moitié de la table de codes ASCII


    Veuillez noter que dans le tableau d'encodage, les lettres (majuscules et minuscules) sont classées par ordre alphabétique et les chiffres sont classés par ordre croissant. Ce respect de l'ordre lexicographique dans la disposition des symboles est appelé principe du codage séquentiel de l'alphabet.

    Pour les lettres de l'alphabet russe, le principe du codage séquentiel est également respecté.

    Deuxième moitié de la table de codes ASCII


    Malheureusement, il existe actuellement cinq encodages cyrilliques différents (KOI8-R, Windows. MS-DOS, Macintosh et ISO). Pour cette raison, des problèmes surviennent souvent lors du transfert de texte russe d'un ordinateur à un autre, d'un système logiciel à un autre.

    Chronologiquement, l'une des premières normes de codage des lettres russes sur les ordinateurs était KOI8 (« Information Exchange Code, 8-bit »). Ce codage a été utilisé dans les années 70 sur les ordinateurs de la série ES et, à partir du milieu des années 80, il a commencé à être utilisé dans les premières versions russifiées du système d'exploitation UNIX.

    Depuis le début des années 90, époque de domination du système d'exploitation MS DOS, l'encodage CP866 demeure (« CP » signifie « Code Page », « code page »).

    Les ordinateurs Apple exécutant le système d'exploitation Mac OS utilisent leur propre encodage Mac.

    En outre, l'Organisation internationale de normalisation (ISO) a approuvé un autre codage appelé ISO 8859-5 comme norme pour la langue russe.

    Le codage le plus couramment utilisé actuellement est Microsoft Windows, en abrégé CP1251.

    Depuis la fin des années 90, le problème de la normalisation du codage des caractères a été résolu par l'introduction d'une nouvelle norme internationale appelée Unicode. Il s'agit d'un encodage 16 bits, c'est-à-dire il alloue 2 octets de mémoire pour chaque caractère. Bien entendu, cela multiplie par 2 la quantité de mémoire occupée. Mais une telle table de codes permet d'inclure jusqu'à 65 536 caractères. La spécification complète de la norme Unicode comprend tous les alphabets du monde existants, disparus et créés artificiellement, ainsi que de nombreux symboles mathématiques, musicaux, chimiques et autres.

    Essayons d'utiliser un tableau ASCII pour imaginer à quoi ressembleront les mots dans la mémoire de l'ordinateur.

    Représentation interne des mots dans la mémoire de l'ordinateur

    Parfois, il arrive qu'un texte composé de lettres de l'alphabet russe reçu d'un autre ordinateur ne puisse pas être lu - une sorte d'« abracadabra » est visible sur l'écran du moniteur. Cela se produit parce que les ordinateurs utilisent des codages de caractères différents pour la langue russe.

    Profondeur de bits du code binaire, Conversion des informations de la forme continue à la forme discrète, Universalité du codage binaire, Codes uniformes et non uniformes, Informatique 7e année Bosova, Informatique 7e année

    1.5.1. Conversion d'informations d'une forme continue à une forme discrète
    Pour résoudre ses problèmes, une personne doit souvent transformer des informations existantes d'une forme de représentation à une autre. Par exemple, lors de la lecture à haute voix, les informations sont converties d'une forme discrète (texte) à une forme continue (son). Au contraire, lors d’une dictée dans un cours de langue russe, l’information passe d’une forme continue (la voix du professeur) à une forme discrète (les notes des élèves).
    Les informations présentées sous forme discrète sont beaucoup plus faciles à transmettre, à stocker ou à traiter automatiquement. Par conséquent, dans la technologie informatique, une grande attention est accordée aux méthodes de conversion des informations d'une forme continue à une forme discrète.
    La discrétisation de l'information est le processus de conversion de l'information d'une forme continue de représentation à une forme discrète.
    Examinons l'essence du processus d'échantillonnage d'informations à l'aide d'un exemple.
    Les stations météorologiques disposent d'enregistreurs pour l'enregistrement continu de la pression atmosphérique. Le résultat de leur travail sont des barogrammes - des courbes montrant l'évolution de la pression sur de longues périodes de temps. L'une de ces courbes, tracée par l'appareil pendant sept heures d'observation, est représentée sur la Fig. 1.9.

    Sur la base des informations reçues, vous pouvez construire un tableau contenant les relevés des instruments au début des mesures et à la fin de chaque heure d'observation (Fig. 1.10).

    Le tableau obtenu ne donne pas une image complètement complète de l'évolution de la pression au cours de la période d'observation : par exemple, la valeur de pression la plus élevée survenue au cours de la quatrième heure d'observation n'est pas indiquée. Mais si vous totalisez les valeurs de pression observées toutes les demi-heures ou 15 minutes, le nouveau tableau donnera une image plus complète de l'évolution de la pression.
    Ainsi, nous avons converti les informations présentées sous forme continue (barogramme, courbe) en forme discrète (tableau) avec une certaine perte de précision.
    À l’avenir, vous vous familiariserez avec les manières de représenter discrètement des informations audio et graphiques.

    Des chaînes de trois symboles binaires sont obtenues en complétant les codes binaires à deux chiffres à droite avec le symbole 0 ou 1. En conséquence, les combinaisons de codes de trois symboles binaires sont 8 - deux fois plus que celles de deux symboles binaires :
    En conséquence, un binaire à quatre bits vous permet d'obtenir 16 combinaisons de codes, un à cinq bits - 32, un à six bits - 64, etc. La longueur de la chaîne binaire - le nombre de caractères dans le code binaire - est appelé la profondeur de bits du code binaire.
    Noter que:
    4 = 2 * 2,
    8 = 2 * 2 * 2,
    16 = 2 * 2 * 2 * 2,
    32 = 2 * 2 * 2 * 2 * 2 etc.
    Ici, le nombre de combinaisons de codes est le produit d'un certain nombre de facteurs identiques égal à la profondeur de bits du code binaire.
    Si le nombre de combinaisons de codes est désigné par la lettre N et la profondeur de bits du code binaire par la lettre i, alors le motif identifié sous forme générale s'écrira comme suit :
    N = 2 * 2 * ... * 2.
    je facteurs
    En mathématiques, ces produits s'écrivent sous la forme :
    N = 2 je.
    L'entrée 2 i se lit comme suit : « 2 à la i-ième puissance ».

    Tâche. Le chef de la tribu Multi a demandé à son ministre de développer un système binaire et d'y traduire toutes les informations importantes. Quelle taille de binaire sera requise si l'alphabet utilisé par la tribu Multi contient 16 caractères ? Notez toutes les combinaisons de codes.
    Solution. Étant donné que l'alphabet multi-tribus est composé de 16 caractères, ils ont besoin de 16 combinaisons de codes. Dans ce cas, la longueur (profondeur de bits) du code binaire est déterminée à partir du rapport : 16 = 2 i. Donc i = 4.
    Pour écrire toutes les combinaisons de codes de quatre 0 et 1, nous utilisons le diagramme de la Fig. 1.13 : 0000, 0001, 0010, 0011, 0100, 0101, 0110,0111,1000,1001,1010,1011,1100,1101,1110,1111.

    1.5.3. La polyvalence du codage binaire
    Au début de cette section, vous avez appris que, représenté sous forme continue, il peut être exprimé à l'aide de symboles dans un langage naturel ou formel. À leur tour, les caractères d’un alphabet arbitraire peuvent être convertis en binaire. Ainsi, à l'aide du code binaire, tous les langages naturels et formels, ainsi que les images et les sons, peuvent être représentés (Fig. 1.14). Cela signifie l'universalité du codage binaire.
    Les codes binaires sont largement utilisés en technologie informatique, ne nécessitant que deux états d'un circuit électronique - « activé » (cela correspond au chiffre 1) et « off » (cela correspond au chiffre 0).
    La simplicité de mise en œuvre technique est le principal avantage du codage binaire. L’inconvénient du codage binaire est la grande longueur du code obtenu.

    1.5.4. Codes uniformes et non uniformes
    Il existe des codes uniformes et non uniformes. Les codes uniformes dans les combinaisons de codes contiennent le même nombre de symboles, les codes impairs contiennent un nombre différent.
    Ci-dessus, nous avons examiné les codes binaires uniformes.
    Un exemple de code non uniforme est le code Morse, dans lequel une séquence de signaux courts et longs est définie pour chaque lettre et chiffre. Ainsi, la lettre E correspond à un signal court (« point »), et la lettre Ш correspond à quatre signaux longs (quatre « tirets »). Inégal vous permet d'augmenter la vitesse de transmission des messages car les caractères les plus fréquents dans les informations transmises ont les combinaisons de codes les plus courtes.

    L'information que donne ce symbole est égale à l'entropie du système et est maximale dans le cas où les deux états sont également probables ; dans ce cas, le symbole élémentaire véhicule l'information 1 (deux unités). Par conséquent, la base d'un codage optimal sera l'exigence que les caractères élémentaires du texte codé apparaissent en moyenne aussi souvent.

    Présentons ici une méthode pour construire un code qui satisfait à la condition énoncée ; Cette méthode est connue sous le nom de code de Shannon-Fano. Son idée est que les symboles codés (lettres ou combinaisons de lettres) sont divisés en deux groupes à peu près également probables : pour le premier groupe de symboles, 0 est placé à la première place de la combinaison (le premier caractère du nombre binaire représentant le symbole); pour le deuxième groupe - 1. Ensuite, chaque groupe est à nouveau divisé en deux sous-groupes à peu près également probables ; pour les symboles du premier sous-groupe, zéro est placé en deuxième place ; pour le deuxième sous-groupe - un, etc.

    Démontrons le principe de construction du code de Shannon-Fano en utilisant le matériau de l'alphabet russe (tableau 18.8.1). Comptons les six premières lettres (de « - » à « t ») ; en résumant leurs probabilités (fréquences), nous obtenons 0,498 ; toutes les autres lettres (de « n » à « sf ») auront approximativement la même probabilité de 0,502. Les six premières lettres (de « - » à « t ») auront en premier lieu un 0 binaire. Les lettres restantes (de « n » à « f ») auront en premier lieu un un. Ensuite, nous divisons à nouveau le premier groupe en deux sous-groupes à peu près également probables : de « - » à « o » et de « e » à « t » ; pour toutes les lettres du premier sous-groupe, nous mettrons en deuxième lieu zéro, et du deuxième sous-groupe - un. Nous continuerons le processus jusqu'à ce qu'il reste exactement une lettre dans chaque division, qui sera codée avec un certain nombre binaire. Le mécanisme pour construire le code est présenté dans le tableau 18.8.2, et le code lui-même est donné dans le tableau 18.8.3.

    Tableau 18.8.2.

    Signes binaires

    Tableau 18.8.3

    À l'aide du tableau 18.8.3, vous pouvez encoder et décoder n'importe quel message.

    À titre d’exemple, écrivons l’expression « théorie de l’information » en code binaire.

    01110100001101000110110110000

    0110100011111111100110100

    1100001011111110101100110

    Notez qu'il n'est pas nécessaire de séparer les lettres les unes des autres par un signe spécial, puisque le décodage s'effectue sans ambiguïté même sans cela. Vous pouvez le vérifier en décodant la phrase suivante à l'aide du tableau 18.8.2 :

    10011100110011001001111010000

    1011100111001001101010000110101

    010110000110110110

    (« méthode de codage »).

    Il faut cependant noter que toute erreur d'encodage (confusion aléatoire des caractères 0 et 1) avec un tel code est désastreuse, puisque décoder tout le texte suivant l'erreur devient impossible. Par conséquent, ce principe de codage ne peut être recommandé que dans les cas où les erreurs de codage et de transmission d'un message sont pratiquement éliminées.

    Une question naturelle se pose : le code que nous avons compilé, en l’absence d’erreurs, est-il vraiment optimal ? Pour répondre à cette question, trouvons l'information moyenne par symbole élémentaire (0 ou 1) et comparons-la avec le maximum d'informations possible, qui est égal à une unité binaire. Pour ce faire, on trouve d'abord l'information moyenne contenue dans une lettre du texte transmis, soit l'entropie par lettre :

    ,

    où est la probabilité que la lettre prenne un certain état (« - », o, e, a,..., f).

    De la table 18.8.1 nous avons

    (deux unités par lettre de texte).

    A l'aide du tableau 18.8.2, on détermine le nombre moyen de symboles élémentaires par lettre

    En divisant l'entropie par, on obtient l'information par symbole élémentaire

    (deux unités).

    Ainsi, l'information par caractère est très proche de sa limite supérieure de 1, et le code que nous avons choisi est très proche de celui optimal. En restant dans les limites du codage des lettres, on ne peut pas faire mieux.

    Notez que dans le cas d'un codage de nombres de lettres simplement binaires, nous aurions une image de chaque lettre avec cinq caractères binaires et les informations pour un caractère seraient

    (deux unités),

    c'est-à-dire sensiblement moins qu'avec un codage de lettres optimal.

    Il convient toutefois de noter que le codage « par lettre » n’est pas du tout économique. Le fait est qu’il existe toujours une dépendance entre les lettres adjacentes de tout texte significatif. Par exemple, après une voyelle en russe, il ne peut pas y avoir « ъ » ou « ь » ; « Je » ou « yu » ne peuvent pas apparaître après les sifflements ; après plusieurs consonnes d'affilée, la probabilité d'une voyelle augmente, etc.

    Nous savons que lorsque des systèmes dépendants sont combinés, l’entropie totale est inférieure à la somme des entropies des systèmes individuels ; par conséquent, l'information véhiculée par un morceau de texte connecté est toujours inférieure à l'information par caractère multipliée par le nombre de caractères. Compte tenu de cette circonstance, un code plus économique peut être construit si vous ne codez pas chaque lettre individuellement, mais des « blocs » entiers de lettres. Par exemple, dans un texte russe, il est logique d'encoder entièrement certaines combinaisons de lettres fréquentes, telles que « tsya », « ayet », « nie », etc. Les blocs codés sont classés par ordre décroissant de fréquence, comme les lettres dans la table. 18.8.1, et le codage binaire s'effectue selon le même principe.

    Dans certains cas, il s'avère raisonnable de coder non même des blocs de lettres, mais des morceaux de texte entiers et significatifs. Par exemple, pour soulager le télégraphe pendant les vacances, il convient d'encoder des textes standards entiers avec des nombres conventionnels, tels que :

    "Félicitations pour la nouvelle année, je vous souhaite une bonne santé et du succès dans votre travail."

    Sans nous attarder spécifiquement sur les méthodes de codage par blocs, nous nous limiterons à formuler le théorème de Shannon évoqué ici.

    Soit une source d'information et un récepteur connectés par un canal de communication (Fig. 18.8.1).

    La productivité de la source d'information est connue, c'est-à-dire le nombre moyen d'unités d'information binaires provenant de la source par unité de temps (numériquement elle est égale à l'entropie moyenne du message produit par les sources par unité de temps). Connaître en outre la capacité du canal, c'est-à-dire la quantité maximale d'informations (par exemple, les caractères binaires 0 ou 1) que le canal est capable de transmettre dans la même unité de temps. La question se pose : quelle doit être la capacité du canal pour qu'il « fasse face » à sa tâche, c'est-à-dire pour que l'information arrive sans délai de la source au récepteur ?

    La réponse à cette question est donnée par le premier théorème de Shannon. Formulons-le ici sans preuve.

    1er théorème de Shannon

    Si la capacité du canal de communication est supérieure à l'entropie de la source d'information par unité de temps

    alors il est toujours possible de coder un message suffisamment long pour qu'il soit transmis par un canal de communication sans délai. Si au contraire

    alors le transfert d'informations sans délai est impossible.



    Avez-vous aimé l'article? Partagez-le