Contacts

Classement des informations. Perception humaine de l'information Types d'informations en informatique par signification sociale

Études informatiques... o information et ses propriétés o processus n stockage... n traitement... n et transmission d'informations à l'aide d'ordinateurs. Français : informatique = information + automatisation automatique de l'information Anglais : informatique informatique + science = informatique 2

L'information est... toute information sur le monde qui nous entoure qu'une personne reçoit en utilisant les sens : n yeux (vision, 90 pour cent de l'information) n n oreilles (ouïe) langue (goût) nez (odorat) peau (toucher) Latin : informatio - explication, informations 3

L’information est… « L’information est de l’information, pas de la matière ni de l’énergie. » N. Wiener, « Cybernétique, ou Contrôle et communication chez les animaux et les machines » L'information est l'un des concepts de base de la science (comme la matière, l'énergie), il n'y a donc pas de définition plus claire : § ne peut pas être exprimé à travers des concepts plus simples § est seulement expliqué avec des exemples ou en comparaison avec d'autres concepts 4

Types d'informations o Symbole (signe, geste) o Texte (constitué de symboles, leur ordre est important) KOT TOK o Informations numériques o Informations graphiques (dessins, peintures, dessins, photos, schémas, cartes) o Son o Informations tactiles (toucher ) o Goût o Odeur 5

Informations de nature inanimée Ordre, organisation, hétérogénéité des informations q Systèmes fermés (pas d'échange d'informations et d'énergie avec l'environnement extérieur) : ordre (plus d'informations) chaos (moins d'informations) q Systèmes ouverts (augmentation possible des informations) : H H O hydrogène et oxygène atomes O H H molécule eau poussière d'étoile galaxie 6

L'information dans la nature vivante q Les organismes vivants sont des systèmes ouverts. q Les organismes unicellulaires utilisent des informations sur la température et la composition chimique. q La complication augmente l'information. la lumière est une matière organique ! dioxyde de carbone CO 2 eau H 2 O glucose C 6 H 12 O 6 photosynthèse oxygène O 2 q Les animaux perçoivent les informations avec leurs sens. 7

Informations en biologie § Les signaux transportent les informations des organes des sens vers le cerveau : § Informations héréditaires (molécule d'ADN) : 9

Information technologique § systèmes de stabilisation : contrôleur de chauffage t° capteur t° § systèmes de contrôle de programme bain de vapeur tour 10

Information dans la technologie § robots (dotés de capteurs qui remplacent les sens - vision, audition, toucher) Rover lunaire Asimo (Honda) § ordinateurs - dispositifs spéciaux pour stocker, transmettre et traiter les informations § systèmes automatisés de vente de billets (ASU "Express") § Internet - système d'information global 11

Propriétés de l'information L'information doit être objective (indépendante de l'opinion de chacun) « Il fait chaud dehors », « Il fait 28°C dehors ». n compréhensible (anglais ?) n utile (le destinataire résout ses problèmes) n fiable (correct) informations erronées, interférences, rumeurs, histoires n pertinent - doit être important pour le moment (météo, tremblement de terre) obsolète, inutile n complet (suffisant pour l'acceptation bonne décision) « Le concert aura lieu le soir », histoire 12

Processus d'information o Stockage n cerveau, papier, pierre, écorce de bouleau, ... n Mémoire PC, disquettes, disques durs, CD, DVD, bande magnétique o Traitement n création de nouvelles informations n codage - changement de forme, enregistrement sous un signe système (sous forme de code) n recherche n tri – classement des éléments de la liste dans un ordre donné o Source de transmission d'informations interférence canal de communication récepteur d'informations 14

Codage des informations Le codage est l'enregistrement d'informations à l'aide d'un système de signes (langage). ? Pourquoi les informations sont-elles codées ? données de codage (code) Les informations sont transmises, traitées et stockées sous forme de codes. 101010 transmission anti-interférence (méthodes de codage spéciales) données (code) 11111100010 traitement de transmission stockage 15

Langues La langue est un système de signes utilisé pour stocker et transmettre des informations. n naturel (russe, anglais, ...) il existe des règles et des exceptions n programme formel (règles strictes) qq ; start writeln("Bonjour!"); fin. La grammaire est la règle selon laquelle les mots sont construits à partir des symboles de l'alphabet. La syntaxe correspond aux règles selon lesquelles les mots sont construits en phrases. 16

Tâche d'encodage 1. Encodez votre nom en utilisant le code Morse. VASSIA ! Le code est inégal, un séparateur est nécessaire ! 17

Tâche d'encodage 2. Encodez votre nom à l'aide de la table de codes (Windows-1251) : 0 1 2 3 4 5 6 7 8 9 A B C D E F C A B C D E G H I J K L M N O P D R S T U V X C CH SH SCH Y Y Y VASYA! B A S Y S 2 C 0 D 1 DF Le code est uniforme, un séparateur n'est PAS nécessaire ! 18

Codage : objectifs et méthodes Texte : § en Russie : Bonjour Vasya ! § Windows-1251 : CFF 0 E 8 E 2 E 52 C 20 C 2 E 0 F 1 FF 21 § transfert à l'étranger (translit) : Privet, Vasya ! § sténographie : § cryptage : Rsygzhu-!Gbta” ? Numéros : comment sont-ils cryptés ? § pour les calculs : 25 § en lettres : vingt-cinq § Système romain : XXV ! L’information (le sens du message) peut être codée de différentes manières ! 19

Unités de mesure 1 bit (chiffre binaire, chiffre binaire) est la quantité d'informations que nous recevons lorsque nous choisissons l'une des deux options possibles (question : « Oui » ou « Non » ?) Exemples : Ce mur est-il vert ? Oui. La porte est ouverte? Non. Est-ce qu'aujourd'hui est un jour de congé ? Non. Est-ce une voiture neuve ? Nouveau. Allez-vous prendre du thé ou du café ? Café. 21

S'il y a plus d'options... « Oui » ou « Non » ? 2 options – 1 bit 4 options – 2 bits 8 options – 3 bits ? La quantité d'informations changera-t-elle si vous pointez immédiatement vers l'avion souhaité ? 22

Conversion vers d'autres unités 25 Ko = =25· 1024 octets =25· 1024· 8 bits =25 : 1024 Mo =25 : 1024=25 : 10242 Go =25 : 1024 : 1024= 25 : 10243 To multiplication de grandes unités division de petites unités 40

Src="https://site/presentation/150632667_184504194/image-27.jpg" alt="(!LANG : Conversion vers d'autres unités Comparer (placer le signe ou =) : 3 octets ="> Перевод в другие единицы Сравните (поставьте знак или =): 3 байта = 24 бита 1000 байт!}

Tâches : texte Quelle quantité d'espace mémoire doit être allouée pour stocker la phrase Bonjour, Vasya ! n on compte tous les caractères, y compris les signes de ponctuation et les espaces (il y a 13 caractères ici) n s'il n'y a pas d'information supplémentaire, alors on considère que 1 caractère occupe 1 octet n en codage UNICODE 1 caractère occupe 2 octets Réponse : 13 octets soit 104 bits (en UNICODE : 26 octets ou 208 bits) 42

Problèmes : texte Combien d'espace faut-il allouer pour stocker 10 pages d'un livre si chaque page contient 32 lignes de 64 caractères chacune ? Solution : n sur 1 page 32 64=2048 caractères n sur 10 pages 10 2048=20480 caractères n chaque caractère occupe 1 octet Réponse : n 20480 octets ou ... n 20480 8 bits ou ... n 20480 : 1024 Ko = 20 Ko 43

Notion d'information

Le mot « information » vient du latin informations , ce qui en traduction signifie information, clarification, familiarisation.

La notion d'« information » dans un cours d'informatique est fondamentale, elle ne peut être donnée à travers d'autres concepts plus simples. En géométrie par exemple, les concepts de base sont : « point », « rayon », « plan ». Le contenu des concepts de base de toute science est expliqué par des exemples ou révélé par comparaison avec le contenu d'autres concepts.

Information il s’agit d’informations sur le monde qui nous entoure qui augmentent le niveau de conscience d’une personne.

À titre de comparaison, nous présentons également quelques autres définitions et caractéristiques :

  • Informations - le contenu d'un message ou d'un signal ; informations considérées dans le processus de leur transmission ou de leur perception, permettant d'élargir les connaissances sur l'objet d'intérêt.
  • L'information est l'une des entités fondamentales du monde qui nous entoure.
  • L'information reflète la diversité, c'est-à-dire une violation de la monotonie.
  • L'information est l'une des principales propriétés universelles de la matière.
  • Dans le ménage Dans un sens, l'information est comprise comme l'information qu'une personne reçoit de la nature et de la société environnantes à travers les sens, ce qui augmente son niveau de conscience.
  • En science, l’information signifie de nouvelles connaissances acquises. Par exemple, un mathématicien inclura dans ce concept les informations qu'une personne n'a pas reçues, mais qu'elle a créée elle-même à l'aide de déductions.
  • En cybernétique la notion d'information est associée aux processus de contrôle dans des systèmes complexes,la partie des connaissances qui est utilisée pour l'orientation, l'action active, la gestion, afin de préserver et de développer le système ;
  • En philosophie sens - c'est l'interaction, la réflexion, la cognition.
  • Dans un sens probabiliste - il s'agit d'informations qui suppriment ou réduisent complètement l'incertitude existant avant sa réception.
  • Dans l'information informatique- il s'agit d'informations sur les objets et phénomènes de l'environnement, leurs paramètres, propriétés et état, qui réduisent le degré d'incertitude et d'incomplétude qui existe à leur sujet.
  • En technologie L'information fait référence aux messages transmis sous forme de signes ou de signaux.

Types d'informations

Par mode de perceptionles informations sont divisées selon les types suivants :visuel, auditif, gustatif, olfactif et tactile. Cette division est basée sur les sens par lesquels l'information est perçue par une personne : respectivement la vision, l'ouïe, le goût, l'odorat et le toucher. La recherche scientifique montre que plus de 90 % des informations qu’une personne reçoit du monde extérieur proviennent de la vision et de l’ouïe, et environ 10 % du goût, de l’odorat et du toucher. Le monde de la nature vivante offre de nombreux exemples où les organes des sens (organes de réception de l'information) ont atteint une perfection étonnante : la vigilance de l'œil d'aigle, le champ de vision panoramique d'une libellule, la subtilité de l'odorat et de l'ouïe des animaux sauvages. Les animaux possèdent également des organes sensoriels que les humains ne possèdent pas. Il s’agit de la ligne latérale chez les poissons, d’un « localisateur » ultrasonique chez les chauves-souris. La salamandre possède une glande sous la peau sur la tête qui peut détecter la lumière du soleil (le « troisième œil »). Et un serpent a une zone de peau entre les yeux et le nez qui est très sensible à la chaleur. A l'aide de cet organe, le serpent perçoit l'image thermique du monde.

L'homme crée des dispositifs qui lui permettent de recevoir des informations qui ne lui sont pas accessibles par le biais de sensations directes. Microscopes, télescopes, thermomètres, compteurs de vitesse : la liste est longue. Les analogues des organes sensoriels humains dans les appareils techniques correspondent à divers capteurs . La réception d'informations s'appelle saisir . Dans un ordinateur personnel, des périphériques de saisie spéciaux sont chargés de saisir les informations : clavier, scanner, numériseur, microphone, souris et bien plus encore.

Une personne perçoit les informations en utilisant ses sens. Les informations perçues se présentent sous la forme de signaux énergétiques (lumière, son, chaleur) et de rayonnement (goût et odeur), et le processus de réception de ces signaux se déroule en continu.

Les organes sensoriels d'un organisme vivant sont principalement par nature discret . Les images visuelles sont perçues par les cellules rétiniennes, les sensations tactiles surviennent dans les neurones sensoriels, les odeurs sont perçues par les récepteurs olfactifs, dont chacun est soit dans un état excité, soit non excité à un moment donné. Toutes les perceptions sensorielles sont transformées dans le corps d'une forme discrète à une forme continue, et les informations ne sont pas stockées dans les neurones individuels du cerveau, mais sont entièrement distribuées dans tout celui-ci. La continuité de la représentation, par exemple des informations visuelles, permet à une personne de percevoir avec confiance la dynamique du monde environnant. Les grandeurs discrètes ne prennent pas toutes les valeurs possibles, mais seulement certaines valeurs, et elles peuvent être recalculées.

En technologie, l’information continue est dite analogique. De nombreux appareils fabriqués par l’homme fonctionnent avec des informations analogiques. Le faisceau du tube image du téléviseur se déplace à travers l’écran, faisant briller les points. Plus le faisceau est fort, plus la lueur est brillante. Le changement de luminosité se produit de manière fluide et continue. Un tourne-disque, un thermomètre à mercure, un manomètre sont des exemples d'appareils analogiques. Certains appareils électroménagers peuvent avoir une conception à la fois analogique et numérique. Par exemple, un tonomètre est un appareil permettant de mesurer la tension artérielle. Une différence significative est qu'un appareil analogique peut donner une valeur de lecture absolument arbitraire (légèrement supérieure ou inférieure à une division), tandis que l'ensemble des lectures d'un appareil numérique est limité par le nombre de chiffres sur l'indicateur. L'ordinateur fonctionne exclusivement avec des discrets ( numérique ) information. La mémoire de l'ordinateur est constituée de bits individuels, ce qui signifie qu'elle est discrète. Les capteurs à travers lesquels les informations sont perçues mesurent principalement des caractéristiques continues - température, charge, tension, etc. Le problème se pose de convertir les informations analogiques sous forme discrète. Idéeéchantillonnage le signal continu est le suivant. Qu'il y ait un signal continu. On peut supposer que sur de courtes périodes de temps, la valeur des caractéristiques de ce signal est constante et change instantanément à la fin de chaque intervalle. En « découpant » tout l'intervalle de temps en ces petits morceaux et en prenant la valeur des caractéristiques sur chacun d'eux, on obtient un signal avec un nombre fini de valeurs. De cette façon, il deviendra discret. Une quantité continue est souvent associée au graphique d'une fonction, et une quantité discrète est souvent associée à un tableau de ses valeurs.

Ce processus est appelénumériser un signal analogique, et la transformation de l'information estconversion analogique-numérique. La précision de la conversion dépend de l'ampleur discrétion - taux d'échantillonnage : plus le taux d'échantillonnage est élevé, plus l'information numérique est proche de la qualité de l'analogique. Mais plus l’ordinateur doit effectuer de calculs et plus il stocke et traite d’informations. Classement des informations

Les informations peuvent être conditionnellement divisées en différents types, en fonction de l'une ou l'autre de leurs propriétés ou caractéristiques, par exemple par la méthode de codage, la sphère d'occurrence, la méthode de transmission et de perception et la finalité sociale, etc.

  • Par méthode de codage

Selon la méthode de codage du signal, les informations peuvent être divisées en analogiques et numériques. Un signal analogique représente des informations sur la valeur du paramètre initial, qui sont rapportées dans les informations, sous la forme de la valeur d'un autre paramètre, qui constitue la base physique du signal, son support physique. Par exemple, les angles des aiguilles d’une horloge constituent la base de l’affichage analogique de l’heure. La hauteur de la colonne de mercure dans un thermomètre est le paramètre qui fournit des informations analogiques sur la température. Plus la hauteur du thermomètre est longue, plus la température est élevée. Pour afficher des informations dans un signal analogique, toutes les valeurs de paramètres intermédiaires du minimum au maximum sont utilisées, c'est-à-dire en théorie, il y en a un nombre infini. Un signal numérique n'utilise qu'un nombre minimum de ces valeurs, le plus souvent deux seulement, comme base physique pour l'enregistrement et la transmission des informations. Par exemple, la base de l'enregistrement des informations dans un ordinateur repose sur deux états du support de signal physique - la tension électrique. Un état est qu'il y a une tension électrique, classiquement désignée par un (1), l'autre est qu'il n'y a pas de tension électrique, classiquement désignée par zéro (0). Par conséquent, pour transmettre des informations sur la valeur du paramètre initial, il est nécessaire d'utiliser une représentation des données sous la forme d'une combinaison de zéros et de uns, c'est-à-dire représentation numérique. Il est intéressant de noter qu'à une certaine époque, des ordinateurs ont été développés et utilisés, basés sur l'arithmétique ternaire, car il est naturel de prendre les trois suivants comme états principaux de la tension électrique : 1) la tension est négative, 2) la tension est nulle, 3 ) la tension est positive. Des articles scientifiques consacrés à de telles machines et décrivant les avantages de l'arithmétique ternaire sont toujours en cours de publication. Désormais, les fabricants de machines binaires ont remporté la compétition. Est-ce que ce sera toujours comme ça ? Voici quelques exemples d’appareils numériques grand public. Les montres électroniques avec affichage numérique fournissent des informations horaires numériques. La calculatrice effectue des calculs avec des données numériques. Une serrure mécanique avec un code numérique peut également être appelée un appareil numérique primitif.

  • Par zone d'origine

Selon la zone d'origine, les informations peuvent être classées comme suit. Les informations qui surviennent dans la nature inanimée sont dites élémentaires, dans le monde animal et végétal - biologique, dans la société humaine - sociale. Dans la nature, vivante et inanimée, l'information est véhiculée par : la couleur, la lumière, l'ombre, les sons et les odeurs. De la combinaison de la couleur, de la lumière et de l’ombre, des sons et des odeurs, des informations esthétiques apparaissent. Parallèlement aux informations esthétiques naturelles, un autre type d’informations est apparu à la suite de l’activité créatrice des personnes : les œuvres d’art. En plus des informations esthétiques, les informations sémantiques sont créées dans la société humaine grâce à la connaissance des lois de la nature, de la société et de la pensée. La division de l'information en esthétique et sémantique est évidemment très conditionnelle, il faut simplement comprendre que dans certaines informations sa partie sémantique peut prédominer, et dans une autre la partie esthétique.

  • Selon le mode de transmission et de perception

Selon le mode de transmission et de perception, les informations sont généralement classées comme suit. Les informations transmises sous forme d'images et de symboles visibles sont dites visuelles ; transmis par des sons - auditifs ; sensations - tactiles ; odeurs - goût. Les informations perçues par les équipements de bureau et les ordinateurs sont appelées informations orientées machine. La quantité d'informations orientées machine augmente constamment en raison de l'utilisation toujours croissante des nouvelles technologies de l'information dans diverses sphères de la vie humaine.

  • À des fins publiques

Selon les objectifs publics, les informations peuvent être divisées en masse, spéciales et personnelles. L’information de masse est à son tour divisée en sciences sociopolitiques, scientifiques quotidiennes et populaires. Les informations spéciales sont divisées en production, technique, gestion et scientifique. Les informations techniques présentent les gradations suivantes :

industrie des machines-outils,

génie mécanique,

instrumental...

  • L'information scientifique est divisée en informations biologiques, mathématiques, physiques...
  • Selon formulaire de présentation
  1. Informations textuelles contenues dans des documents imprimés ou écrits ou affichées par des dispositifs techniques sous forme de texte.
  2. Peintures graphiques, dessins, photographies, graphiques, diagrammes, images vidéo sur un écran de télévision ou d'ordinateur.
  3. Langue parlée sonore, musique, effets sonores.
  4. Ensembles numériques de données numériques.
  5. Commandes et instructions de contrôle qui sont transmises à certains exécutants (personnes, animaux, robots, machines CNC, ordinateurs).
  6. Informations multimédia contenant plusieurs types d'informations (cinéma).

Propriétés des informations

Une personne n'a pas besoin d'informations en général, mais spécifiquement au bon moment pour naviguer dans le monde qui l'entoure et prendre des décisions concernant d'autres actions.

Pour que l’information contribue à prendre les bonnes décisions, elle doit être caractérisée par les propriétés suivantes :

  • utilité ou pertinence (respect des besoins des consommateurs) ;
  • fiabilité (vérité de la situation, absence d'erreurs cachées) ;
  • exhaustivité (assez pour comprendre et prendre une décision) ;
  • pertinence ou opportunité(importance pour le présent) ;
  • disponibilité (la possibilité de le recevoir par ce consommateur) ;
  • sécurité (impossibilité d’utilisation ou de modification non autorisée) ;
  • ergonomie (commodité de forme ou de volume du point de vue d'un consommateur donné) ;
  • objectivité (ne dépend de l’opinion de personne) ;
  • clarté (clairement exprimé).
  • exhaustivité (l'information est complète si elle est suffisante pour la prise de décision)
  • Précision (déterminée par le degré de proximité avec l'état réel d'un objet, d'un processus, d'un phénomène)

Les propriétés de l'information sont divisées en :

Attributif;

Pragmatique;

Dynamique.

Les propriétés attributives sont les propriétés sans lesquelles l'information n'existe pas. Les propriétés pragmatiques caractérisent le degré d'utilité de l'information pour l'utilisateur, le consommateur et la pratique. Les propriétés dynamiques caractérisent l'évolution des informations au fil du temps.

Discrétion

Les propriétés attributives de l'information auxquelles vous devez prêter attention sont la propriété de discrétion. Les informations et les connaissances contenues dans l'information sont discrètes, c'est-à-dire caractériser des données factuelles individuelles, des motifs et des propriétés des objets étudiés, qui sont diffusés sous la forme de divers messages constitués d'une ligne, d'une couleur composée, d'une lettre, d'un chiffre, d'un symbole, d'un signe.

Continuité

L'information a tendance à fusionner avec ce qui a déjà été enregistré et accumulé plus tôt, favorisant ainsi le développement et l'accumulation progressifs. Cela confirme une autre propriété attributive de l'information : la continuité.

Signification et nouveauté

Les propriétés pragmatiques de l'information se manifestent dans le processus d'utilisation de l'information. Tout d'abord, cette catégorie de propriétés comprend la présence de sens et de nouveauté de l'information, qui caractérise le mouvement de l'information dans les communications sociales et met en évidence la partie nouvelle pour le consommateur.

Utilitaire

Les informations utiles sont des informations qui réduisent l'incertitude des informations sur un objet. La désinformation est considérée comme une valeur négative d'une information utile. Le terme utilité de l’information est souvent utilisé pour décrire l’impact que les informations entrantes ont sur l’état interne d’une personne, son humeur, son bien-être et enfin sa santé. En ce sens, les informations utiles ou positives sont celles qui sont perçues avec joie par une personne, contribuent à améliorer son bien-être, et les informations négatives ont un effet déprimant sur le psychisme et le bien-être d'une personne et peuvent conduire à une détérioration de son bien-être. santé, une crise cardiaque, par exemple.

Valeur

La prochaine propriété pragmatique de l’information est sa valeur. Il est important de noter que la valeur de l’information varie selon les différents consommateurs et utilisateurs.

Caractère cumulatif

La propriété cumulative caractérise l'accumulation et le stockage d'informations.

Croissance des informations

Tout d’abord, il convient de noter la propriété de croissance de l’information. Le mouvement de l'information dans les communications d'information et sa diffusion et sa croissance constantes déterminent la propriété de distribution ou de répétition multiple. Bien que l’information dépende d’une langue particulière et d’un locuteur particulier, elle n’est strictement associée ni à une langue particulière ni à un locuteur particulier. Grâce à cela, les informations peuvent être reçues et utilisées par plusieurs consommateurs. C'est la propriété de réutilisabilité et une manifestation de la propriété de disperser les informations entre diverses sources.

Vieillissement

Parmi les propriétés dynamiques, il faut également noter la propriété de vieillissement de l'information.

Notion d'information

Dans l'idée "information"(de lat. informations- information, explication, présentation) a une signification différente selon l'industrie où cette notion est considérée : dans la science, la technologie, la vie ordinaire, etc. En règle générale, les informations désignent toute donnée ou information qui intéresse quelqu'un (un message sur un événement, sur les activités de quelqu'un, etc.).

Dans la littérature, vous pouvez trouver un grand nombre de définitions du terme "information", qui reflètent différentes approches de son interprétation :

Définition 1

  • Information– les informations (messages, données) quelle que soit la forme de leur présentation (« Loi fédérale de la Fédération de Russie du 27 juillet 2006, n° 149$-FZ sur l'information, les technologies de l'information et la protection de l'information ») ;
  • Information– des informations sur le monde environnant et les processus qui s'y déroulent, perçues par une personne ou un appareil spécial (Dictionnaire explicatif de la langue russe d'Ozhegov).

Lorsqu'on parle de traitement de données informatiques, l'information est comprise comme une certaine séquence de symboles ou de signes (lettres, chiffres, images et sons graphiques codés, etc.), qui portent une charge sémantique et sont présentées sous une forme compréhensible par un ordinateur.

En informatique, la définition suivante de ce terme est le plus souvent utilisée :

Définition 2

Information– il s’agit d’informations conscientes (connaissances exprimées en signaux, messages, actualités, notifications, etc.) sur le monde qui nous entoure, qui font l’objet de stockage, de transformation, de transmission et d’utilisation.

Le même message d'information (article de magazine, publicité, histoire, lettre, certificat, photographie, programme télévisé, etc.) peut véhiculer différentes quantités et contenus d'informations pour différentes personnes, en fonction de leurs connaissances accumulées et du niveau d'accessibilité de ce message et au niveau de l'intérêt qu'on y porte. Par exemple, les nouvelles écrites en chinois ne transmettent aucune information à une personne qui ne connaît pas cette langue, mais peuvent être utiles à une personne qui connaît le chinois. Les informations présentées dans une langue familière ne contiendront aucune information nouvelle si leur contenu n'est pas clair ou est déjà connu.

L'information est considérée comme une caractéristique non pas d'un message, mais de la relation entre le message et son destinataire.

Types d'informations

Les informations peuvent exister dans différents les types:

  • textes, dessins, dessins, photographies ;
  • signaux lumineux ou sonores;
  • les ondes radio;
  • impulsions électriques et nerveuses ;
  • enregistrements magnétiques;
  • gestes et expressions faciales ;
  • odeurs et sensations gustatives ;
  • chromosomes à travers lesquels les caractéristiques et les propriétés des organismes sont héritées, etc.

Distinguer principaux types d'informations, qui sont classés selon leur forme de représentation, leurs modes d'encodage et de stockage :

  • graphique- l'un des types les plus anciens, à l'aide duquel des informations sur le monde environnant étaient stockées sous forme de peintures rupestres, puis sous forme de peintures, photographies, schémas, dessins sur divers matériaux (papier, toile, marbre, etc. .), qui représentent des images du monde réel ;
  • son(acoustique) - pour stocker les informations sonores, un appareil d'enregistrement sonore a été inventé en 1877, et pour les informations musicales, une méthode de codage a été développée à l'aide de caractères spéciaux, ce qui permet de les stocker sous forme d'informations graphiques ;
  • texte– code le discours d'une personne à l'aide de symboles spéciaux – des lettres (différentes pour chaque nation) ; le papier est utilisé pour le stockage (écriture dans des cahiers, impression, etc.) ;
  • numérique– code la mesure quantitative des objets et de leurs propriétés dans le monde environnant à l'aide de symboles spéciaux - des nombres (chaque système de codage a le sien) ; est devenu particulièrement important avec le développement du commerce, de l’économie et des échanges monétaires ;
  • informations vidéo- une méthode de stockage d'images « vivantes » du monde environnant, apparue avec l'invention du cinéma.

Il existe également des types d'informations pour lesquelles les méthodes de codage et de stockage n'ont pas encore été inventées - informations tactiles, organoleptiques et etc.

Initialement, les informations étaient transmises sur de longues distances à l'aide de signaux lumineux codés, après l'invention de l'électricité - en transmettant un signal codé d'une certaine manière à travers des fils, et plus tard à l'aide d'ondes radio.

Note 1

Claude Shannon est considéré comme le fondateur de la théorie générale de l'information, qui a également jeté les bases des communications numériques en écrivant le livre « Théorie mathématique des communications » en 1948, dans lequel il a pour la première fois démontré la possibilité d'utiliser le code binaire pour transmettre des informations.

Les premiers ordinateurs étaient un moyen de traiter des informations numériques. Avec le développement de la technologie informatique, les PC ont commencé à être utilisés pour stocker, traiter et transmettre divers types d'informations (informations textuelles, numériques, graphiques, sonores et vidéo).

Vous pouvez stocker des informations à l'aide d'un PC sur des disques ou bandes magnétiques, sur des disques laser (CD et DVD) et des dispositifs de mémoire non volatile spéciaux (mémoire flash, etc.). Ces méthodes sont constamment améliorées et des supports d'informations sont également inventés. Toutes les actions contenant des informations sont effectuées par le processeur central du PC.

Les objets, processus, phénomènes du monde matériel ou immatériel, s'ils sont considérés du point de vue de leurs propriétés informationnelles, sont appelés objets d'information.

Un grand nombre de processus d'information différents peuvent être effectués sur l'information, notamment :

  • Création;
  • réception;
  • combinaison;
  • stockage;
  • diffuser;
  • copier;
  • traitement;
  • recherche;
  • perception;
  • formalisation;
  • division en parties;
  • la mesure;
  • usage;
  • diffusion;
  • simplification;
  • destruction;
  • mémorisation;
  • transformation;

Propriétés des informations

L'information, comme tout objet, a propriétés, dont les plus importants, du point de vue informatique, sont :

  • Objectivité. Informations objectives – existant indépendamment de la conscience humaine, des méthodes permettant de les enregistrer, de l’opinion ou de l’attitude de quelqu’un.
  • Crédibilité. Les informations reflétant la véritable situation sont fiables. Des informations inexactes conduisent le plus souvent à des malentendus ou à de mauvaises décisions. L'obsolescence de l'information peut transformer une information fiable en une information peu fiable, car il ne reflétera plus la véritable situation.
  • Complétude. L’information est complète si elle est suffisante pour la compréhension et la prise de décision. Des informations incomplètes ou redondantes peuvent entraîner un retard dans la prise de décision ou une erreur.
  • Exactitude des informations – le degré de proximité avec l'état réel d'un objet, d'un processus, d'un phénomène, etc.
  • La valeur des informations dépend de son importance pour la prise de décision, la résolution de problèmes et son applicabilité ultérieure à tout type d’activité humaine.
  • Pertinence. Seule la réception en temps opportun des informations peut conduire au résultat attendu.
  • Clarté. Si des informations utiles et opportunes ne sont pas clairement exprimées, elles deviendront probablement inutiles. Les informations seront compréhensibles lorsqu'elles seront, au minimum, exprimées dans un langage que le destinataire peut comprendre.
  • Disponibilité. L'information doit correspondre au niveau de perception du destinataire. Par exemple, les mêmes questions sont présentées différemment dans les manuels scolaires et universitaires.
  • Brièveté. L'information est bien mieux perçue si elle est présentée non pas de manière détaillée et verbeuse, mais avec un degré de concision acceptable, sans détails inutiles. La concision des informations est indispensable dans les ouvrages de référence, les encyclopédies et les instructions. La logique, la compacité et la forme pratique de présentation facilitent la compréhension et l'assimilation des informations.

Chaque jour, chaque personne est bombardée d’une énorme quantité d’informations. Nous rencontrons de nouvelles situations, objets, phénomènes. Certaines personnes gèrent sans problème ce flux de connaissances et l’utilisent avec succès à leur avantage. D’autres ont du mal à se souvenir de quoi que ce soit. Cette situation s’explique en grande partie par l’appartenance d’une personne à un certain type de perception de l’information. S'il est servi sous une forme peu pratique pour l'homme, son traitement sera alors extrêmement difficile.

Qu'est-ce que l'information ?

Le concept d’« information » a un sens abstrait et sa définition dépend largement du contexte. Traduit du latin, ce mot signifie « clarification », « présentation », « familiarisation ». Le plus souvent, le terme « information » fait référence à de nouveaux faits qui sont perçus et compris par une personne, et également jugés utiles. En traitant ces informations reçues pour la première fois, les gens acquièrent certaines connaissances.

Comment les informations sont-elles reçues ?

La perception d'informations par une personne est une connaissance de phénomènes et d'objets à travers leur impact sur divers sens. En analysant le résultat de l'impact d'un objet ou d'une situation particulière sur les organes de la vision, de l'ouïe, de l'odorat, du goût et du toucher, l'individu se fait une certaine idée d'eux. Ainsi, la base du processus de perception de l’information réside dans nos cinq sens. Dans ce cas, l’expérience passée d’une personne et les connaissances précédemment acquises sont activement impliquées. En s'y référant, vous pouvez attribuer les informations reçues à des phénomènes déjà connus ou les séparer de la masse générale dans une catégorie distincte. Les méthodes de perception de l'information reposent sur certains processus associés à la psyché humaine :

  • penser (après avoir vu ou entendu un objet ou un phénomène, une personne, commençant à réfléchir, se rend compte de ce à quoi elle est confrontée) ;
  • parole (la capacité de nommer l'objet de perception);
  • sentiments (divers types de réactions aux objets de perception);
  • la volonté d'organiser le processus de perception).

Présentation des informations

Selon ce paramètre, les informations peuvent être divisées selon les types suivants :

  • Texte. Il est représenté sous la forme de toutes sortes de symboles qui, une fois combinés les uns avec les autres, permettent d'obtenir des mots, des phrases, des phrases dans n'importe quelle langue.
  • Numérique. Il s'agit d'informations représentées par des nombres et des signes qui expriment une certaine opération mathématique.
  • Son. Il s'agit d'un discours directement oral, grâce auquel les informations d'une personne sont transmises à une autre, et de divers enregistrements audio.
  • Graphique. Il comprend des diagrammes, des graphiques, des dessins et d'autres images.

La perception et la présentation de l’information sont inextricablement liées. Chacun essaie de choisir exactement l'option de présentation des données qui en assurera la meilleure compréhension.

Modes de perception humaine de l'information

Une personne dispose de plusieurs méthodes de ce type. Ils sont déterminés par les cinq sens : la vision, l’ouïe, le toucher, le goût et l’odorat. A cet égard, il existe une certaine classification des informations selon le mode de perception :

  • visuel;
  • son;
  • tactile;
  • goût;
  • olfactif.

Les informations visuelles sont perçues à travers les yeux. Grâce à eux, diverses images visuelles pénètrent dans le cerveau humain, qui y sont ensuite traitées. L'audition est nécessaire à la perception d'informations se présentant sous forme de sons (parole, bruit, musique, signaux). sont responsables de la possibilité de perception. Des récepteurs situés sur la peau permettent d'estimer la température de l'objet étudié, le type de sa surface et sa forme. Les informations gustatives pénètrent dans le cerveau à partir des récepteurs de la langue et sont converties en un signal par lequel une personne comprend de quel produit il s'agit : aigre, sucré, amer ou salé. L’odorat nous aide également à comprendre le monde qui nous entoure, nous permettant de distinguer et d’identifier toutes sortes d’odeurs. La vision joue le rôle principal dans la perception de l'information. Cela représente environ 90 % des connaissances acquises. La manière sonore de percevoir l'information (émission radio par exemple) représente environ 9 % et les autres sens ne représentent que 1 %.

Types de perceptions

La même information, obtenue d’une manière particulière, est perçue différemment par chaque personne. Quelqu'un, après avoir lu une minute d'une page d'un livre, peut facilement en raconter le contenu, tandis que d'autres ne se souviendront de pratiquement rien. Mais si une telle personne lit le même texte à haute voix, elle reproduira facilement dans sa mémoire ce qu'elle a entendu. De telles différences déterminent les caractéristiques de la perception de l’information par les gens, chacune étant inhérente à un certain type. Il y en a quatre au total :

  • Visuels.
  • Apprenants auditifs.
  • Kinesthésique.
  • Discret.

Il est souvent très important de savoir quel type de perception de l'information est dominant pour une personne et comment elle est caractérisée. Cela améliore considérablement la compréhension mutuelle entre les personnes et permet de transmettre le plus rapidement et le plus complètement possible les informations nécessaires à votre interlocuteur.

Visuels

Ce sont des personnes pour qui la vision est le principal organe sensoriel dans le processus d'apprentissage du monde qui les entoure et de perception des informations. Ils se souviennent bien du nouveau matériel s'ils le voient sous forme de texte, d'images, de diagrammes et de graphiques. Dans le discours des apprenants visuels, il y a souvent des mots qui sont d'une manière ou d'une autre liés aux caractéristiques des objets par leurs caractéristiques externes, la fonction de la vision elle-même (« voyons », « lumière », « brillant », « va être visible », « il me semble »). Ces personnes parlent généralement fort, rapidement et gesticulent activement. Les personnes visuelles accordent une grande attention à leur apparence et à leur environnement.

Audielles

Pour les apprenants auditifs, il est beaucoup plus facile d’apprendre quelque chose qu’ils ont entendu une fois plutôt que vu cent fois. Les particularités de la perception de l'information par ces personnes résident dans leur capacité à bien écouter et à se souvenir de ce qui est dit, aussi bien lors d'une conversation avec des collègues ou des proches que lors d'une conférence dans un institut ou lors d'un séminaire de travail. Les apprenants auditifs ont un vocabulaire étendu et il est agréable de communiquer avec eux. Ces personnes savent parfaitement convaincre leur interlocuteur lors d'une conversation avec lui. Ils préfèrent les activités calmes aux passe-temps actifs ; ils aiment écouter de la musique.

Kinesthésique

Le toucher, l'odorat et le goût jouent un rôle important dans le processus de perception kinesthésique de l'information. Ils s'efforcent de toucher, sentir, goûter un objet. L'activité motrice est également importante pour les apprenants kinesthésiques. Dans le discours de ces personnes, il y a souvent des mots qui décrivent des sensations (« doux », « selon mes sentiments », « saisir »). Un enfant kinesthésique a besoin de contact physique avec ses proches. Les câlins et les bisous, des vêtements confortables, un lit moelleux et propre sont importants pour lui.

Discret

Les manières de percevoir l’information sont directement liées aux sens humains. La majorité des gens utilisent la vision, l’ouïe, le toucher, l’odorat et le goût. Cependant, les types de perception de l'information incluent ceux qui sont principalement associés à la réflexion. Les personnes qui perçoivent le monde qui les entoure de cette manière sont appelées discrètes. Il y en a pas mal, et on ne les retrouve que chez les adultes, car la logique n'est pas suffisamment développée chez les enfants. Dès le plus jeune âge, les principaux moyens de percevoir les informations discrètes sont visuels et auditifs. Et ce n'est qu'avec l'âge qu'ils commencent à réfléchir activement à ce qu'ils ont vu et entendu, tout en découvrant de nouvelles connaissances par eux-mêmes.

Type de perception et capacité d’apprentissage

La façon dont les gens perçoivent l’information détermine en grande partie la forme d’apprentissage qui sera la plus efficace pour eux. Bien sûr, personne ne recevrait de nouvelles connaissances entièrement à l'aide d'un organe sensoriel ou d'un groupe d'organes sensoriels, par exemple le toucher et l'odorat. Tous agissent comme des moyens de percevoir des informations. Cependant, savoir quels organes sensoriels sont dominants chez une personne en particulier permet aux autres de lui transmettre rapidement les informations nécessaires et permet à la personne elle-même d'organiser efficacement le processus d'auto-éducation.

Les apprenants visuels, par exemple, doivent présenter toutes les nouvelles informations sous une forme lisible, sous forme d’images et de diagrammes. Dans ce cas, ils s’en souviennent beaucoup mieux. Les personnes visuelles excellent généralement dans les sciences exactes. Même dans leur enfance, ils sont excellents pour assembler des puzzles, connaissent de nombreuses formes géométriques, savent dessiner, dessiner et construire avec des cubes ou des jeux de construction.

Les apprenants auditifs, au contraire, perçoivent plus facilement les informations qu'ils reçoivent, qu'il s'agisse d'une conversation avec quelqu'un, d'une conférence, d'un enregistrement audio. Lors de l’enseignement d’une langue étrangère à des apprenants auditifs, les cours audio sont préférables au tutoriel imprimé. Si vous avez encore besoin de vous souvenir du texte écrit, il est préférable de le prononcer à voix haute.

Les apprenants kinesthésiques sont très mobiles. Ils ont du mal à se concentrer sur quoi que ce soit pendant de longues périodes. Ces personnes ont du mal à apprendre ce qu'elles ont appris lors d'un cours magistral ou d'un manuel. Le processus de mémorisation ira plus vite si les apprenants kinesthésiques apprennent à relier théorie et pratique. Il leur est plus facile d'apprendre des sciences telles que la physique, la chimie, la biologie, dans lesquelles un terme scientifique ou une loi spécifique peut être représenté comme le résultat d'une expérience réalisée en laboratoire.

Les personnes discrètes mettent un peu plus de temps que les autres à prendre en compte les nouvelles informations. Ils doivent d’abord le comprendre et le relier à leur expérience passée. Ces personnes peuvent par exemple enregistrer le cours d’un professeur sur un dictaphone et l’écouter ensuite une seconde fois. Parmi les discrets, il y a beaucoup de scientifiques, car pour eux la rationalité et la logique sont avant tout. Par conséquent, au cours de leurs études, ils se rapprocheront le plus des matières dans lesquelles la précision détermine la perception de l'information - l'informatique, par exemple.

Rôle dans la communication

Les types de perception de l’information influencent également la façon dont vous communiquez avec lui afin qu’il vous écoute. Pour les apprenants visuels, l’apparence de l’interlocuteur est très importante. La moindre négligence vestimentaire peut le décourager, après quoi ce qu'il dit n'aura plus aucune importance. Lorsque vous parlez avec une personne visuelle, vous devez faire attention à vos expressions faciales, parler rapidement à l'aide de gestes et soutenir la conversation avec des dessins schématiques.

Dans une conversation avec un apprenant auditif, il doit y avoir des mots qui lui sont proches (« écoute-moi », « ça a l'air tentant », « ça en dit long »). La perception de l'information par une personne auditive dépend en grande partie de la manière dont s'exprime l'interlocuteur. doit être calme et agréable. Il est préférable de reporter une conversation importante avec une personne auditive si vous avez un gros rhume. Ces personnes ne peuvent pas non plus tolérer les notes stridentes de leur voix.

Les négociations avec une personne kinesthésique doivent être menées dans une pièce avec une température de l'air confortable et une odeur agréable. Ces personnes ont parfois besoin de toucher l'interlocuteur pour mieux comprendre ce qu'elles ont entendu ou vu. Vous ne devriez pas vous attendre à ce qu’un apprenant kinesthésique prenne une décision rapide immédiatement après la conversation. Il a besoin de temps pour écouter ses sentiments et comprendre qu'il fait tout correctement.

Le dialogue avec des personnes discrètes doit être construit sur le principe de rationalité. Il est préférable de fonctionner selon des règles strictes. Pour les données discrètes, le langage des nombres est plus compréhensible.

Information(de lat. informatio, explication, présentation, sensibilisation) - toute information et donnée reflétant les propriétés des objets dans les systèmes naturels, sociaux et techniques et transmise par des moyens audio, graphiques (y compris écrits) ou autres sans l'utilisation ou avec l'utilisation de techniques fonds.

Classement des informations

Les informations peuvent être divisées en types selon différents critères :

1. Parmode de perception:

    Visuel - perçu par les organes de vision.

    Auditif - perçu par les organes auditifs.

    Tactile - perçu par les récepteurs tactiles.

    Olfactif - perçu par les récepteurs olfactifs.

    Gustatif - perçu par les papilles gustatives.

2.Parformulaire de présentation:

    Texte - transmis sous forme de symboles destinés à désigner les lexèmes de la langue.

    Numérique - sous forme de chiffres et de signes indiquant des opérations mathématiques.

    Graphique - sous forme d'images, d'objets, de graphiques.

    Son - oral ou sous forme d'enregistrement et de transmission de lexèmes de la langue.

3. Parbut:

    Masse - contient des informations triviales et fonctionne avec un ensemble de concepts compréhensibles pour la plupart des membres de la société.

    Spécial - contient un ensemble spécifique de concepts ; lorsqu'elles sont utilisées, des informations sont transmises qui peuvent ne pas être compréhensibles pour la majeure partie de la société, mais qui sont nécessaires et compréhensibles au sein du groupe social restreint où ces informations sont utilisées.

    Secret - transmis à un cercle restreint de personnes et via des canaux fermés (protégés).

    Personnel (privé) - un ensemble d'informations sur une personne qui détermine le statut social et les types d'interactions sociales au sein de la population.

4. Parsignification:

    Pertinent – ​​informations précieuses à un moment donné.

    Fiable - informations obtenues sans distorsion.

    Compréhensible – information exprimée dans un langage compréhensible pour ceux à qui elle est destinée.

    Complet - informations suffisantes pour prendre une décision ou une compréhension correcte.

    Utile - l'utilité de l'information est déterminée par le sujet qui a reçu l'information en fonction de l'étendue des possibilités de son utilisation.

5. Parvérité:

    vrai

Les informations ont les propriétés suivantes :

    fiabilité

L’information est fiable si elle reflète la véritable situation. Des informations inexactes peuvent conduire à des malentendus ou à de mauvaises décisions. Les informations fiables ont tendance à devenir obsolètes, c’est-à-dire qu’elles ne reflètent plus la véritable situation.

L'information est complète si elle est suffisante pour comprendre et prendre des décisions. Les informations incomplètes et redondantes entravent la prise de décision ou peuvent conduire à des erreurs.

    précision

L'exactitude de l'information est déterminée par son degré de proximité avec l'état réel d'un objet, d'un processus ou d'un phénomène.

    valeur

La valeur de l'information dépend de son importance pour résoudre un problème, ainsi que de la durée de son utilisation ultérieure dans tout type d'activité humaine.

    opportunité

Seules les informations reçues en temps opportun peuvent apporter le bénéfice escompté. La présentation prématurée de l'information (lorsqu'elle ne peut pas encore être assimilée) et son retard sont également indésirables.

    clarté

Si des informations précieuses et opportunes sont exprimées de manière floue, elles peuvent devenir inutiles. L'information devient compréhensible si elle est exprimée dans la langue parlée par ceux à qui cette information est destinée.

    disponibilité

L'information doit être présentée sous une forme accessible (selon le niveau de perception). Ainsi, les mêmes questions sont présentées différemment dans les manuels scolaires et les publications scientifiques.

    brièveté

Les informations sur la même question peuvent être présentées brièvement (de manière concise, sans détails sans importance) ou de manière approfondie (détaillée, verbeuse). La concision des informations est nécessaire dans les ouvrages de référence, les encyclopédies et toutes sortes d'instructions.

Quantité d'informations peut être considérée comme une mesure permettant de réduire l’incertitude des connaissances lors de la réception de messages d’information. Cela permet de quantifier les informations. Il existe une formule qui relie le nombre de messages d'information possibles N et la quantité d'informations I portées par le message reçu : N=2 je(Formule de Hartley). Parfois, c’est écrit différemment. Puisque l’occurrence de chacun des N événements possibles a la même probabilité p=1/N, Que N=1/p et la formule ressemble à je = journal 2 (1/p) = - journal 2 p

Si les événements ne sont pas également probables, alors : h je = enregistrer 2 1/ p je = - enregistrer 2 p je ,

où p i est la probabilité que le ième caractère de l'alphabet apparaisse dans un message. Il est plus pratique d'utiliser non pas la valeur h i comme mesure de la quantité d'informations, mais la valeur moyenne de la quantité d'informations pour un caractère de l'alphabet H = Sp je h je = - Sp je enregistrer 2 p je

La valeur de H atteint son maximum pour des événements également probables, c'est-à-dire lorsque tous les p i p je = 1/N

Dans ce cas, la formule de Shannon se transforme en formule de Hartley.

Derrière unité de quantité d'information la quantité d'informations contenues dans le message d'information est acceptée, réduisant de moitié l'incertitude de la connaissance. Cette unité est appelée peu.

La plus petite unité de mesure de la quantité d'informations est un bit, et la prochaine plus grande unité est un octet, et :

1 octet = 8 bits = 2 3 bits.

En informatique, le système de formation de plusieurs unités de mesure est quelque peu différent de celui accepté dans la plupart des sciences. Les systèmes d'unités métriques traditionnels, par exemple le Système international d'unités SI, utilisent un facteur de 10 n comme multiple d'unités, où n = 3, 6, 9, etc., ce qui correspond aux préfixes décimaux « Kilo » (10 3 ), « Méga » (10 6), « Giga » (10 9), etc.

Dans un ordinateur, les informations sont codées à l'aide d'un système de signes binaires et, par conséquent, dans plusieurs unités de mesure de la quantité d'informations, un facteur de 2 n est utilisé

Ainsi, les unités de mesure de la quantité d'informations multiples d'un octet sont saisies comme suit :

1 kilo-octet (Ko) = 2 10 octets = 1 024 octets ;

1 mégaoctet (Mo) = 2 10 Ko = 1 024 Ko ;

1 gigaoctet (Go) = 2 10 Mo = 1 024 Mo.

La quantité d'informations contenues dans le message. Un message est constitué d'une séquence de caractères dont chacun contient une certaine quantité d'informations.

Si les signes portent la même quantité d'informations, alors la quantité d'informations I c dans le message peut être calculée en multipliant la quantité d'informations I z portée par un signe par la longueur du code (nombre de caractères dans le message) K :

Je c = Je z  K

Ainsi, chaque chiffre d'un code informatique binaire porte une information de 1 bit. Par conséquent, deux chiffres transportent des informations sur 2 bits, trois chiffres - sur 3 bits, etc. La quantité d'informations en bits est égale au nombre de chiffres du code informatique binaire

L'entropie de l'information est une mesure de l'incertitude ou de l'imprévisibilité de l'information, l'incertitude de l'apparition de tout symbole de l'alphabet primaire. En l'absence de pertes d'informations, elle est numériquement égale à la quantité d'informations par symbole du message transmis.

L'entropie est la quantité d'informations par message élémentaire provenant d'une source générant des messages statistiquement indépendants.

L'entropie a commencé à être utilisée comme mesure d'informations utiles dans les processus de transmission de signaux via des fils. Par information, Shannon comprenait les signaux nécessaires et utiles pour le destinataire. Les signaux inutiles, du point de vue de Shannon, sont du bruit et des interférences. Si le signal à la sortie d'un canal de communication est une copie exacte du signal à l'entrée, alors, du point de vue de la théorie de l'information, cela signifie l'absence d'entropie. Aucun bruit signifie un maximum d'informations. La relation entre l'entropie et l'information se reflète dans la formule : H + Oui = 1

où H est l'entropie, Y est l'information. Cette conclusion a été quantitativement étayée par Brillouin.

Pour calculer l'entropie, Shannon a proposé une équation qui rappelle l'expression classique de l'entropie trouvée par Boltzmann. H = ∑ P. je enregistrer 2 1/ P. je = -∑ P. je enregistrer 2 P. je ,

où H est l'entropie de Shannon, P i est la probabilité d'un événement.

L'entropie binaire d'information pour les événements aléatoires indépendants avec des états possibles (de à , - fonction de probabilité) est calculée par la formule :

Cette quantité est aussi appelée entropie moyenne d'un message. La quantité est appelée entropie partielle, qui caractérise uniquement l'état -e.

Ainsi, l'entropie d'un événement est la somme de signe opposé de tous les produits des fréquences relatives d'apparition de l'événement, multipliées par leurs propres logarithmes binaires. Cette définition des événements aléatoires discrets peut être étendue à une fonction de distribution de probabilité.



Avez-vous aimé l'article? Partagez-le