Contacts

Discipline qui étudie les propriétés de l'information ainsi que les méthodes. L'informatisation. Informatisation. Le rôle des activités d'information dans la société moderne. L'informatique comme discipline scientifique

Informatique Informatique L'informatique est une discipline basée sur l'utilisation de la technologie informatique qui étudie la structure et les propriétés générales de l'information, ainsi que les modèles et les méthodes de sa création, de son stockage, de sa recherche, de sa transformation, de sa transmission et de son application dans diverses sphères de l'activité humaine. .


Le terme « informatique » vient des mots français information (information) et automatique (automation) et signifie littéralement « information automation ». L'informatique est une science technique qui détermine le domaine d'activité lié aux processus de stockage, de transformation et de transmission d'informations à l'aide d'un ordinateur. A l'étranger, le cours est généralement appelé "informatique", ce qui signifie littéralement "informatique"


Domaines prioritaires : Développement de systèmes informatiques et de logiciels ; la théorie de l'information, qui étudie les processus associés à la transmission, la réception, la transformation et le stockage de l'information ; modélisation mathématique, méthodes de calcul et mathématiques appliquées et leur application à la recherche fondamentale et appliquée dans divers domaines de la connaissance; méthodes d'intelligence artificielle qui simulent des méthodes de pensée logique et analytique dans l'activité intellectuelle humaine (inférence logique, apprentissage, compréhension de la parole, perception visuelle, jeux, etc.); l'analyse systémique, qui étudie les outils méthodologiques utilisés pour préparer et justifier des décisions sur des problèmes complexes de nature différente ;


Bioinformatique, qui étudie les processus d'information dans les systèmes biologiques ; l'informatique sociale, qui étudie les processus d'informatisation de la société ; méthodes d'infographie, animation par ordinateur, outils multimédias; les systèmes et réseaux de télécommunications, y compris les réseaux informatiques mondiaux, unissant l'ensemble de l'humanité en une seule communauté de l'information ; une variété d'applications couvrant la production, la science, l'éducation, la médecine, le commerce, l'agriculture et tous les autres types d'activités économiques et sociales.


Les moyens techniques, ou matériel informatique, en anglais sont désignés par le mot Hardware, qui se traduit littéralement par " hard products ", littéralement " soft products "), qui met l'accent sur l'équivalence de la machine elle-même et du logiciel, ainsi que sur la capacité de le logiciel pour modifier, adapter et développer


La programmation d'un problème est toujours précédée de l'élaboration d'un moyen de le résoudre sous la forme d'une séquence d'actions allant des données initiales au résultat souhaité, c'est-à-dire l'élaboration d'un algorithme de résolution du problème. Le terme Brainware est utilisé pour désigner la partie de l'informatique associée au développement d'algorithmes et à l'étude des méthodes et techniques pour leur construction.


« information » Le terme « information » vient du mot latin « informatio », qui signifie information, clarification, présentation Malgré la large diffusion de ce terme, le concept d'information est l'un des plus controversés en science Alors que ce concept reste largement intuitif et reçoit divers contenus sémantiques dans divers domaines de l'activité humaine


Claude Shannon, un scientifique américain qui a jeté les bases de la théorie des sciences de l'information, qui étudie les processus associés à la transmission, la réception, la transformation et le stockage de l'information, considère l'information comme l'incertitude levée de notre connaissance des propriétés générales de l'information. , ainsi que les modèles et les méthodes de sa création, de son stockage, de sa recherche, de sa transformation, de sa transmission et de son application dans diverses sphères de l'activité humaine.


Les gens échangent des informations sous forme de messages Un message est une forme de présentation d'informations sous forme de discours, de textes, de gestes, de regards, d'images, de données numériques, de graphiques, de tableaux, etc. Un même message d'information (article de journal, publicité, lettre, télégramme, aide, histoire, dessin, émission de radio, etc.) peut contenir une quantité différente d'informations pour différentes personnes, selon leurs connaissances antérieures, sur le niveau de compréhension de ce message et l'intérêt qu'il porte. Ainsi, un message écrit en japonais n'apporte aucune information nouvelle à une personne qui ne connaît pas cette langue, mais il peut être très instructif pour une personne qui parle japonais.


Il a étudié à l'Université du Michigan, où il a obtenu deux diplômes en mathématiques et en génie électrique. Puis il s'installe au Massachusetts Institute of Technology.En 1938, il soutient sa thèse de doctorat, dans laquelle il développe les principes de la structure logique d'un ordinateur, combinant l'algèbre booléenne avec le travail des circuits électriques. Ce travail est devenu un tournant dans l'histoire du développement de l'informatique moderne et de la technologie informatique. Shannon a ensuite travaillé pour Bell Telephone Laboratories, où il a appliqué de nouveaux principes pour la conception des centraux téléphoniques. En 1948, il publie l'ouvrage "Théorie mathématique de la communication", dans lequel il présente sa théorie unifiée de la transmission et du traitement de l'information. Les informations dans ce contexte comprenaient tous les types de messages, y compris ceux qui sont transmis le long des fibres nerveuses des organismes vivants. En 1956, Shannon a quitté Bell Labs et l'année suivante est devenu professeur au Massachusetts Institute of Technology, où il a pris sa retraite en 1978, Shannon a proposé de mesurer l'information dans un sens mathématique, en la réduisant à un choix entre deux valeurs, ou chiffres binaires, oui ou non", jetant ainsi les bases de la théorie moderne de la communication, qui joue actuellement un rôle important dans de nombreux domaines. Dans les années cinquante, il crée la "Ultimate Machine" sur une idée de Mervin Minsky et décrite dans A Voice over the Sea d'Arthur Clarke ; cette machine ressemblait à une boîte avec un seul interrupteur. Une fois allumé, son couvercle s'est ouvert, une main est apparue de là, qui a ramené l'interrupteur à sa position d'origine et s'est à nouveau cachée à l'intérieur. À la retraite, il a été complètement pris en charge par sa passion de longue date pour la jonglerie. Shannon a construit plusieurs machines à jongler et a même créé une théorie générale du jonglage, qui, cependant, ne l'a pas aidé à battre son record personnel de jonglerie avec quatre balles. Il s'est également essayé à la poésie et a également développé une variété de modèles boursiers et les a testés (il dit avec succès) ses propres actions. Mais depuis le début des années 1960, Shannon n'a pratiquement rien fait de nouveau en théorie de l'information. Claude Shannon est décédé le 24 février 2001 à l'âge de 84 ans après des années de lutte contre la maladie d'Alzheimer. Shannon Claude Elwood (b. 1916, Gaylord, Michigan), ingénieur et mathématicien américain. L'un des fondateurs de la théorie mathématique de l'information. Ouvrages majeurs sur la théorie des circuits relais-contact, théorie mathématique de la communication, cybernétique


Diverses méthodes ont été développées pour évaluer la quantité d'informations. En 1928, l'ingénieur américain R. Hartley considérait le processus d'obtention d'informations comme le choix d'un message parmi un ensemble fini à l'avance donné de N messages équiprobables, et la quantité d'informations que je contenait dans le message sélectionné était déterminée comme le logarithme binaire. de la formule de N. Hartley : I = log 2 N Comme exemple d'utilisation de la formule de Hartley, considérons un problème. Disons que vous devez deviner un nombre parmi un ensemble de nombres de un à cent. En utilisant la formule de Hartley, vous pouvez calculer la quantité d'informations requise pour cela : I = log2100 = 6,644. Ainsi, le message concernant le nombre correctement deviné contient une quantité d'informations approximativement égale à 6 644 unités d'informations.


Et maintenant, considérons un autre problème : les messages « la femme sera la première à quitter la porte de l'immeuble » et « l'homme sera le premier à quitter la porte de l'immeuble » sont-ils également probables ? Il est impossible de répondre à cette question sans équivoque. Tout dépend de quel type de bâtiment on parle. S'il s'agit, par exemple, d'une station de métro, alors la probabilité de quitter la porte en premier est la même pour un homme et une femme, et s'il s'agit d'une caserne militaire, alors pour un homme cette probabilité est beaucoup plus élevée que pour une femme .


Pour des problèmes de ce genre, le scientifique américain Claude Shannon a proposé en 1948 une autre formule pour déterminer la quantité d'informations, prenant en compte la probabilité inégale possible de messages dans un ensemble. Formule de Shannon : I = - (p 1 log 2 p 1 + p 2 log 2 pp N log 2 p N), où pi est la probabilité que le ième message soit sélectionné dans un ensemble de N messages Il est facile de voir que si les probabilités p 1, ..., p N sont égales, alors chacune d'elles est égale à 1 / N, et la formule de Shannon devient la formule de Hartley.


Prenons l'exemple d'une pièce de monnaie et déposons-la sur la table. Elle tombera tête ou queue. Nous avons 2 événements également probables. Après avoir lancé une pièce, nous avons obtenu log 2 2 = 1 bit d'information. Disons que nous avons jeté 8 pièces. Nous avons 2 8 options pour la chute des pièces. Donc, après avoir jeté des pièces, nous obtenons log = 8 bits d'information. Essayons de savoir combien d'informations nous obtenons après avoir lancé les dés. Le cube a six faces - six événements également probables. On obtient : environ 2,6 bits d'information.


Lorsque nous posons une question et que nous pouvons également obtenir une réponse « oui » ou « non », alors après avoir répondu à la question, nous obtenons une information. Dans ce cas, un état est généralement désigné par le numéro 0 et l'autre par le numéro 1. Toute information peut être codée avec une séquence de bits : texte, image, son, etc.


Au regard de l'informatique, l'information s'entend comme une certaine séquence de désignations symboliques (lettres, chiffres, graphiques et sons codés, etc.), qui porte une charge sémantique et se présente sous une forme compréhensible par un ordinateur. Chaque nouveau caractère dans une telle séquence de caractères augmente le volume informationnel du message. Claude Shannon a proposé d'accepter un bit comme unité d'information (chiffre binaire anglais bit). Le bit en théorie de l'information est la quantité d'informations requise pour distinguer deux messages également probables (tels que "face", "face", "pair", "impair", etc.). En informatique, un bit est la plus petite "partie" de la mémoire informatique requise pour stocker l'un des deux caractères "0" et "1" utilisés pour la représentation dans la machine des données et des instructions.


Unité un peu trop petite. En pratique, une unité d'octets plus grande, égale à huit bits, est plus souvent utilisée. Le nom de l'octet a été utilisé pour la première fois en 1956 par V. Buchholz lors de la conception du premier supercalculateur IBM 7030 pour un faisceau de bits transmis simultanément en entrée- périphériques de sortie (six pièces), plus tard dans le cadre du même projet a étendu un octet à huit bits Selon l'une des versions, le mot octet est apparu comme une abréviation de l'expression BInary digiT Eight ("numéro binaire huit"), et dans la morsure résultante, la lettre i a été remplacée par y. Cela a été fait pour éviter toute confusion avec le terme bit préexistant. Une autre hypothèse est que byte est une abréviation de BinarY TERm ("terme binaire").


Des unités d'informations dérivées encore plus grandes sont également largement utilisées : 1 kilooctet (Ko) = 1024 octets = 2 10 octets (1,024 ~ 10 3) 1 mégaoctet (Mo) = 1024 Ko = 2 20 octets (1 048 576 ~ 10 6) 1 gigaoctet ( Go) ) = 1024 Mo = 2 30 octets (1 073 741 824 ~ 10 9) Récemment, en raison de l'augmentation de la quantité d'informations en cours de traitement, des unités dérivées telles que : 1 téraoctet (To) = 1024 Go = 2 40 octets (1 099 511 627 776 ~ 10 12 (1 180 591 620 717 411 303 424 ~ 10 21) 1 yottaoctet (YB) = 1024 ZB = 2 80 octets (1 208 925 819 614 629 174 706 176 ~ 10 24)


En réalité, les préfixes SI kilo-, méga-, giga- devraient être utilisés pour les multiplicateurs 10 3, 10 6 et 10 9, respectivement, mais historiquement, la pratique consistant à utiliser des multiplicateurs avec des puissances de deux est en réalité inférieure de 20,9 % à 1 208 925 819 614 629 174 706 176




Adéquation syntaxique. Il reflète les caractéristiques formelles et structurelles de l'information et n'affecte pas son contenu sémantique. Au niveau syntaxique, le type de support et le mode de présentation de l'information, la vitesse de transmission et de traitement, la taille des codes de présentation de l'information, la fiabilité et la précision de la conversion de ces codes, etc. sont pris en compte. dans ce cas, le côté sémantique n'a pas d'importance.


Adéquation sémantique (sémantique). Cette forme détermine le degré de correspondance entre l'image de l'objet et l'objet lui-même. L'aspect sémantique consiste à prendre en compte le contenu sémantique de l'information. A ce niveau, l'information que l'information reflète est analysée, les connexions sémantiques sont considérées. En informatique, des liens sémantiques sont établis entre les codes pour la présentation de l'information. Cette forme sert à former des concepts et des représentations, à identifier le sens, le contenu de l'information et sa généralisation.


Adéquation pragmatique (consommation). Elle traduit la relation entre l'information et son consommateur, la conformité de l'information avec l'objectif de gestion, qui est mis en œuvre sur sa base. Les propriétés pragmatiques de l'information ne se manifestent qu'en présence de l'unité de l'information (objet), de l'utilisateur et du but de gestion. L'aspect pragmatique de la considération est associé à la valeur, à l'utilité d'utiliser l'information dans l'élaboration d'une solution de consommation pour atteindre son objectif. De ce point de vue, les propriétés de consommation de l'information sont analysées. Cette forme d'adéquation est directement liée à l'utilisation pratique de l'information, avec la correspondance de sa fonction cible avec l'activité du système.


La mesure syntaxique de la quantité d'informations fonctionne avec des informations impersonnelles qui n'expriment pas de relation sémantique à l'objet. La quantité de données V D dans un message est mesurée par le nombre de caractères (bits) dans ce message. Dans différents systèmes numériques, un chiffre a un poids différent et l'unité de mesure des données change en conséquence : dans le système binaire, l'unité de mesure est un bit (le chiffre binaire binaire est un chiffre binaire) ; en notation décimale, l'unité est dit (chiffre décimal).


Exemple : Un message dans un système binaire sous la forme d'un code binaire à huit bits a une taille de données de Vd = 8 bits. Le message dans le système décimal sous la forme d'un nombre à six chiffres a le volume de données Vd = 6 dit.


Entropie (du grec entropie - tour, transformation). Le concept d'entropie a été introduit pour la première fois en thermodynamique pour déterminer la mesure de la dissipation d'énergie irréversible. L'entropie est largement utilisée dans d'autres domaines de la science : en physique statistique comme mesure de la probabilité de réalisation d'un état macroscopique ; en théorie de l'information, mesure de l'incertitude d'une expérience (test) qui peut avoir des résultats différents. Toutes ces interprétations de l'entropie ont une connexion intérieure profonde. L'entropie est fonction d'un état, c'est-à-dire que tout état peut être associé à une valeur complètement définie (avec une précision à une constante - cette incertitude est supprimée par convention, qu'au zéro absolu l'entropie est également égale à zéro) valeur d'entropie.


Utilisant le concept d'entropie, Clausius (1876) a donné la formulation la plus générale de la 2e loi de la thermodynamique : dans les processus adiabatiques réels (irréversibles), l'entropie augmente, atteignant sa valeur maximale dans un état d'équilibre (la 2e loi de la thermodynamique n'est pas absolue, elle est violée lors des fluctuations).


La quantité d'informations est déterminée par la formule : Iβ (α) = H (β) - H (α), où H (α) est l'entropie, c'est-à-dire la quantité d'informations est mesurée en modifiant (diminuant) l'incertitude de l'état du système. L'entropie du système H (a), qui a N états possibles, selon la formule de Shannon, est : où Pi est la probabilité que le système soit dans le i-ème état.


Pour le cas où tous les états du système sont également probables, son entropie est déterminée par le rapport où N est le nombre de tous les états affichés possibles ; m base du système numérique (variété de symboles utilisés dans l'alphabet); n est le nombre de chiffres (caractères) dans le message.


Mesure sémantique de l'information. Mesurer le contenu sémantique de l'information, c'est-à-dire sa quantité au niveau sémantique, la mesure du thésaurus, qui relie les propriétés sémantiques de l'information à la capacité de l'utilisateur à recevoir un message entrant, a reçu la plus grande reconnaissance. Pour cela, le concept de thésaurus utilisateur est utilisé. Un thésaurus est un ensemble d'informations détenues par un utilisateur ou un système.


En fonction de la relation entre le contenu sémantique de l'information S et le thésaurus Sp de l'utilisateur, la quantité d'informations sémantiques Ic, perçue par l'utilisateur et ensuite incluse par lui dans son thésaurus, change. La nature de cette dépendance est illustrée sur la figure à Sp = 0, l'utilisateur ne perçoit pas, ne comprend pas l'information entrante ; avec Sp, l'utilisateur sait tout, il n'a pas besoin des informations entrantes.


Lors de l'évaluation de l'aspect sémantique (significatif) de l'information, il est nécessaire de s'efforcer de concilier les valeurs de S (contenu sémantique de l'information) et Sp (thésaurus utilisateur). Une mesure relative de la quantité d'informations sémantiques peut être le coefficient de contenu C, qui est défini comme le rapport entre la quantité d'informations sémantiques et son volume : Ic - la quantité d'informations sémantiques V D - la quantité de données


Une mesure pragmatique de l'information. Cette mesure détermine l'utilité de l'information (valeur) pour la réalisation de l'objectif de l'utilisateur. Cette mesure est également une valeur relative, en raison des particularités de l'utilisation de cette information dans un système particulier. Il est conseillé de mesurer la valeur de l'information dans les mêmes unités (ou à proximité) dans lesquelles la fonction objectif est mesurée.


Information continue et discrète L'information sur divers phénomènes naturels et processus technologiques est perçue par une personne (à l'aide de ses sens et de divers équipements de mesure) sous la forme de certains champs. Ces champs sont considérés comme continus. Parfois, le terme information analogique est également utilisé à cette fin. Mais toute information continue peut être approximée par une information discrète avec n'importe quel degré de précision


Les résultats de la mesure de toutes les quantités scalaires sont finalement représentés sous forme numérique, et puisque, pour une précision de mesure donnée, ces nombres peuvent être représentés comme des ensembles finis de chiffres, la forme discrète de la représentation de l'information est souvent identifiée avec l'information numérique. signal analogique (son, image) sous forme numérique, deux opérations de base doivent être effectuées : échantillonnage, quantification


Discrétisation Représentation d'un signal analogique continu par une séquence de ses valeurs (échantillons). Ces échantillons sont prélevés à des moments séparés les uns des autres par un intervalle appelé intervalle d'échantillonnage. L'inverse de l'intervalle entre les échantillons est appelé taux d'échantillonnage.


Le plus souvent en technologie télévisuelle, on utilise des images avec une résolution : 640 x 480 NTSC (4 : 3) 768 x 576 PAL, SECAM (4 : 3) 1920 x 1080 HDTV (16 : 9) Photo numérique : ratio 4 : xxx 1920 Photo numérique : ratio 3 : 2 9 x 6 15 x x 24


Il est clair que plus l'intervalle d'échantillonnage est petit et, par conséquent, plus la fréquence d'échantillonnage est élevée, moins la différence entre le signal original et sa copie échantillonnée est grande. La reconstruction ne sera précise que si la fréquence d'échantillonnage est d'au moins 2 fois la bande passante du signal analogique d'origine (cette condition est déterminée par le théorème de Kotelnikov bien connu) Si cette condition n'est pas remplie, alors l'échantillonnage s'accompagne de distorsions irréversibles .


Un signal analogique (signal vidéo de la ligne TV) contient une forme d'onde dont la fréquence augmente d'abord de 0,5 MHz à 2,5 MHz puis diminue jusqu'à 0,5 MHz. Ce signal est échantillonné à une fréquence de 3 MHz. images affichées séquentiellement : signal analogique d'origine, signal échantillonné, récupéré après échantillonnage du signal analogique Exemple de distorsions résultant d'un échantillonnage incorrect


Le filtre de reconstruction passe-bas a une bande passante de 1,2 MHz. Comme vous pouvez le constater, les composantes basse fréquence (inférieures à 1 MHz) sont restituées sans distorsion, l'onde de 1,5 MHz disparaît et se transforme en un champ relativement plat. L'onde de 2,5 MHz après récupération s'est transformée en une onde de 0,5 MHz (c'est la différence entre la fréquence d'échantillonnage de 3 MHz et la fréquence d'origine de 2,5 MHz)


Ces diagrammes d'images illustrent les distorsions associées à un taux d'échantillonnage spatial de l'image insuffisamment élevé.Si un sujet de télévision est un objet en mouvement très rapide ou, par exemple, un objet en rotation, des distorsions d'échantillonnage dans le domaine temporel peuvent également se produire. Un exemple de distorsions associées à un taux d'échantillonnage insuffisamment élevé (et c'est la fréquence d'images de la décomposition de la télévision) est une image d'une voiture se déplaçant rapidement avec des rayons de roue immobiles ou, par exemple, tournant lentement dans un sens ou dans un autre ( effet stroboscopique) Si la fréquence d'échantillonnage est définie, la distorsion sans échantillonnage lorsque la bande passante du signal d'origine est limitée au-dessus et ne dépasse pas la moitié de la fréquence d'échantillonnage


Quantification Représente le remplacement de la valeur de l'échantillon de signal par la valeur la plus proche d'un ensemble de valeurs fixes - niveaux de quantification.En d'autres termes, la quantification est un arrondi de la valeur de l'échantillon.Les niveaux de quantification divisent toute la plage de changements possibles dans les valeurs de signal ​​en un nombre fini d'intervalles - étapes de quantification. L'emplacement des niveaux de quantification est déterminé par l'échelle de quantification. Des échelles uniformes et non uniformes sont utilisées


La distorsion du signal qui se produit pendant le processus de quantification est appelée bruit de quantification. Lors de l'évaluation du bruit, la différence entre le signal original et sa copie quantifiée est calculée. Le bruit de quantification diminue à mesure que le nombre de niveaux de quantification augmente. Quantification à 4 niveaux Quantification à 128 niveaux


640xxx120 80x60


Les opérations liées à la conversion d'un signal analogique en forme numérique sont effectuées par un seul appareil - un convertisseur analogique-numérique (CAN). la restauration d'un signal analogique à partir d'une séquence de mots de code est effectuée dans un convertisseur numérique-analogique (DAC).Il existe maintenant des possibilités techniques pour la mise en œuvre de tous les traitements de signaux sonores et d'images, y compris l'enregistrement et la diffusion, sous forme numérique . Cependant, les appareils analogiques sont toujours utilisés comme capteurs de signaux (par exemple, un microphone, un tube de télévision émetteur ou un appareil à couplage de charge) et pour les appareils de lecture de sons et d'images (par exemple, un haut-parleur, un kinéscope). Par conséquent, les convertisseurs analogique-numérique et numérique-analogique font partie intégrante des systèmes numériques.

Conférence 1

Terme "l'informatique"(Français. informatique) vient des mots français informations(l'information et automatique(automatique) et signifie littéralement "automatisation des informations"... La version anglaise de ce terme est également répandue - "Сinformatique" ce qui signifie littéralement "l'informatique".

L'informatique est une discipline basée sur l'utilisation de la technologie informatique qui étudie la structure et les propriétés générales de l'information, ainsi que les modèles et les méthodes de sa création, de son stockage, de sa recherche, de sa transformation, de sa transmission et de son application dans diverses sphères de l'activité humaine.

En 1978, le congrès scientifique international attribue officiellement le concept "l'informatique" domaines liés au développement, à la création, à l'utilisation et à la maintenance matérielle et technique des systèmes de traitement de l'information, y compris les ordinateurs et leurs logiciels, ainsi que les aspects organisationnels, commerciaux, administratifs et sociopolitiques de l'informatisation - l'introduction massive de la technologie informatique dans tous les domaines de la vie humaine. L'émergence de l'informatique est due à l'émergence et à la diffusion d'une nouvelle technologie de collecte, de traitement et de transmission d'informations liées à la fixation de données sur des supports informatiques.

Le sujet de l'informatique en tant que science est :

- matériel informatique;

- les logiciels pour équipements informatiques ;

- les moyens d'interaction entre le matériel et le logiciel ;

- les moyens d'interaction humaine avec le matériel et les logiciels.

Les moyens d'interaction en informatique sont généralement appelés interface... Par conséquent, les moyens d'interaction entre le matériel et le logiciel sont parfois également appelés interface matériel-logiciel, et les moyens d'interaction humaine avec le matériel et les logiciels - interface utilisateur.

Les tâches de l'informatique en tant que science sont :

- étudier la structure, les propriétés générales de l'information, étudier les lois et les modes de création, de transformation, d'accumulation, de transmission et d'utilisation de l'information.

- systématisation des techniques et méthodes de travail avec le matériel et les logiciels de la technologie informatique. Le but de la systématisation est d'identifier, de mettre en œuvre et de développer des technologies avancées et plus efficaces pour automatiser les étapes de travail avec les données, ainsi que de fournir méthodiquement de nouvelles recherches technologiques.

Dans le cadre de l'informatique, en tant que science technique, il est possible de formuler les concepts d'information, de système d'information et de technologie de l'information. On peut dire que la solution de chaque problème à l'aide d'un ordinateur comprend l'écriture d'informations dans la mémoire, la récupération d'informations dans la mémoire et la manipulation d'informations.


Données- c'est le même concept initial que, disons, en mathématiques "point": une tentative de définition des concepts initiaux conduit à la nécessité de définir en plus les termes utilisés. Ainsi, nous supposerons que Les données désigne tout ensemble de symboles et les enregistrements, images, signaux qu'ils représentent en tant que supports d'information, considérés sans tenir compte de leur signification significative.

Exemples de données: 812, 930, 944. (pour une personne cela ne veut rien dire s'il n'y a pas d'explication sur la signification de ces chiffres). 01000001 01101100 01101100 01100001 (pour les humains, cela ne veut rien dire, mais en ASCII c'est le mot Alla).

Au cours du processus d'information, les données sont converties d'un type à un autre à l'aide de méthodes. Le traitement des données implique de nombreuses opérations différentes. Les principales opérations sont :

- collecte de données - accumulation d'informations afin d'assurer une exhaustivité suffisante pour prendre une décision ;

- la formalisation des données - rassembler les données de différentes sources sous un même formulaire ;

- filtrage des données - élimination des données inutiles qui ne sont pas nécessaires à la prise de décision ;

- tri des données - mise en ordre des données selon un attribut donné à des fins de facilité d'utilisation ;

- archivage des données - sauvegarde des données sous une forme pratique et accessible ;

- protection des données - un ensemble de mesures visant à prévenir la perte, la reproduction et la modification des données ;

- transport de données - réception et transmission de données entre utilisateurs distants du processus d'information. La source de données est généralement appelée serveur et le consommateur est appelé client ;

- conversion de données - convertir des données d'une forme à une autre, ou d'une structure à une autre, ou changer le type de média.

1. L'informatique en tant que discipline scientifique. Notion d'information

1. L'informatique en tant que discipline scientifique

L'informatique- une discipline qui étudie les propriétés de l'information, ainsi que les manières de présenter, d'accumuler, de traiter et de transmettre l'information à l'aide de moyens techniques.

En Occident, ils utilisent un terme différent : "informatique" - informatique.

L'informatique est un domaine très vaste qui s'est développé à l'intersection de plusieurs disciplines fondamentales et appliquées. La base théorique de l'informatique est constituée par le groupe des sciences fondamentales, que l'on peut également attribuer aux mathématiques et à la cybernétique : théorie de l'information, théorie des algorithmes, logique mathématique, analyse combinatoire, grammaire formelle, etc. L'informatique a également ses propres sections : systèmes d'exploitation, architecture informatique, programmation théorique, théorie des bases de données, etc. La base "matérielle" de l'informatique est associée à de nombreuses branches de la physique, de la chimie, et surtout de l'électronique et de l'ingénierie radio.

Le cœur de l'informatique - informatique comme un ensemble de matériels et de logiciels spécifiques, à l'aide desquels nous effectuons diverses opérations de traitement de l'information dans toutes les sphères de notre vie et de notre activité. La technologie de l'information est parfois appelée technologie informatique ou informatique appliquée.

Au cœur des technologies de l'information se trouve un ordinateur(du mot anglais calculer - calculer) - un dispositif technique pour le traitement de l'information. Le terme ordinateur ne reflète que l'histoire de l'émergence d'un ordinateur : dans un ordinateur moderne, l'informatique est loin d'être la seule et souvent pas la fonction principale. A l'aide d'un ordinateur, toutes sortes d'informations sont créées et traitées : texte, graphique, son, vidéo.

2. La notion d'information

Le mot information vient du mot latin informatio, qui signifie information, clarification, familiarisation.

Le concept d'information est fondamental dans le cours de l'informatique, il est impossible de le définir à travers d'autres concepts plus simples. On ne peut que soutenir que ce concept suppose la présence d'un support matériel d'information, d'une source d'information, d'un émetteur d'information, d'un récepteur et d'un canal de communication entre la source et le récepteur.

Le concept d'information est un concept scientifique général, il est utilisé dans toutes les sphères sans exception - philosophie, informatique, cybernétique, biologie, médecine, psychologie, physique, etc., alors que dans chaque science le concept d'information est associé à différents systèmes de notions.

En informatique, l'information est considérée comme un ensemble d'informations utiles sur le monde qui nous entoure, qui circulent dans la nature et la société.

Informations Est un concept scientifique général, un ensemble de connaissances sur les données réelles et les dépendances entre elles. En informatique, les informations sont des données qui doivent être saisies dans un ordinateur et transmises aux utilisateurs.

2. L'informatisation. Informatisation. Le rôle des activités d'information dans la société moderne

Le principal objet d'attention de la discipline "Informatique" est le processus l'informatisation et informatisation société moderne, qui couvre toutes les sphères de notre vie et se développe à un rythme sans précédent dans l'histoire.

L'informatisation n'est pas tant un processus technologique qu'un processus social associé à des changements importants dans le mode de vie de la population.

Informatisation(Informatisation en anglais) - politiques et processus visant à construire et à développer une infrastructure de télécommunications qui unit les ressources d'information géographiquement réparties.

L'informatisation s'appuie sur des méthodes et moyens de contrôle cybernétiques, ainsi que sur des outils des technologies de l'information et de la communication.

L'informatisation est devenue l'une des caractéristiques les plus importantes de notre temps. Il n'y a pas un seul domaine de l'activité humaine qui, d'une manière ou d'une autre, ne serait pas associé aux processus d'obtention et de traitement de l'information pour son utilisation pratique.

Informatisation- l'équipement technique est le processus d'introduction de la technologie informatique électronique dans toutes les sphères de la vie humaine (par exemple, pour contrôler les processus technologiques, le transport, la production et la transmission d'énergie et d'autres processus de production).

Le rôle des activités d'information dans la société moderne

Activités d'information- les activités qui assurent la collecte, le traitement, le stockage, la recherche et la diffusion de l'information, ainsi que la constitution d'une ressource informationnelle et l'organisation de son accès.

L'information a toujours joué un rôle extrêmement important dans la vie humaine. Celui qui possède la plus grande quantité d'informations sur une question est toujours dans une meilleure position que les autres. C'est un dicton bien connu que celui qui possède l'information possède aussi le monde.

Pendant longtemps, la collecte et la systématisation d'informations sur le monde qui nous entoure ont aidé une personne à survivre dans des conditions difficiles - l'expérience et les compétences de fabrication d'outils de chasse et de travail, de création de vêtements et de médicaments ont été transmises de génération en génération. Les informations étaient constamment mises à jour et complétées - chaque phénomène étudié permettait de passer à quelque chose de nouveau, de plus complexe.

Au fil du temps, de grandes quantités de données sur le monde qui les entouraient ont contribué au développement du progrès scientifique et technologique et, par conséquent, à l'ensemble de la société - une personne a pu apprendre à gérer divers types de matière et d'énergie.

Au fil du temps, le rôle de l'information dans la vie humaine est devenu de plus en plus essentiel. Aujourd'hui, dans la première moitié du 21e siècle, le rôle de l'information dans la vie d'une personne est déterminant - plus il possède de compétences et de connaissances, plus il est valorisé en tant que spécialiste et employé, plus il est respecté dans la société.

Au cours des dernières décennies, on a constamment parlé de la transition d'une « société industrielle » à une « société de l'information ».

Il y a un changement dans les méthodes de production, la vision du monde des gens, leur mode de vie. Dans le même temps, des changements se produisent dans la nature du travail, qui est un indicateur du degré de liberté des individus qui travaillent, un indicateur de leur attitude envers le travail. Cela s'exprime tout d'abord dans "l'apprentissage" du travail - dans une augmentation de l'échelle d'application des connaissances scientifiques dans le processus de production, ce qui conduit à une augmentation du principe créatif dans le processus de travail. Le travail devient plus créatif, la proportion de travail mental augmente, l'importance de ses caractéristiques individuelles augmente et, par conséquent, la proportion de travail physique, épuisant la force musculaire d'une personne, diminue. La nouvelle technologie ne nécessite pas des artistes standard, pas des robots, mais des individus, des individus créatifs.

L'information est devenue l'une des ressources stratégiques et managériales les plus importantes, avec les ressources - humaines, financières, matérielles. L'utilisation de la technologie des microprocesseurs, des ordinateurs électroniques et des ordinateurs personnels a conduit à une transformation radicale des relations et des fondements technologiques de l'activité dans diverses sphères de la vie publique : production et consommation, activité financière et commerciale, structure sociale de la société et vie politique, service secteur et culture spirituelle.

3. Révolutions de l'information. Société industrielle

Révolutions de l'information

La société humaine, au fur et à mesure de son développement, est passée par les étapes de la maîtrise de la matière, puis de l'énergie et, enfin, de l'information. Dès le début de l'histoire de l'humanité, le besoin de transmission et de stockage d'informations s'est fait sentir.

Pour transmettre des informations, la langue des signes a d'abord été utilisée, puis la parole humaine. Pour stocker des informations, les peintures rupestres ont commencé à être utilisées et, au IVe millénaire avant notre ère, l'écriture et les premiers supports d'information (tablettes d'argile sumériennes et papyrus égyptiens) sont apparus.

L'histoire de la création d'appareils de traitement de l'information numérique commence également depuis l'Antiquité - depuis l'abaque (le tableau de comptage, qui est le prototype des comptes).

Dans l'histoire de l'humanité, il y a eu plusieurs fois des changements si radicaux dans le domaine de l'information qu'on peut les appeler des révolutions de l'information.

Avec le développement de la société, les progrès scientifiques et technologiques, l'humanité a créé de plus en plus de nouveaux moyens et méthodes pour collecter, stocker, transmettre des informations. Mais la chose la plus importante dans les processus d'information - le traitement et la transformation intentionnelle de l'information - était effectuée jusqu'à récemment exclusivement par des humains.

La première révolution de l'information associé à l'invention de l'écriture, qui a conduit à un saut qualitatif de géant dans le développement de la civilisation. Il est devenu possible d'accumuler des connaissances et de les transmettre aux générations suivantes. Du point de vue de l'informatique, cela peut être évalué comme l'émergence de moyens et de méthodes d'accumulation d'informations.

Deuxième révolution de l'information(milieu du XVe siècle) est associée à l'invention de l'imprimerie, qui a changé la société humaine, la culture et l'organisation de l'activité. La diffusion massive de documents imprimés a rendu les valeurs culturelles accessibles, a ouvert la possibilité de l'auto-apprentissage. Du point de vue de l'informatique, l'importance de cette révolution est qu'elle a mis en place une nouvelle manière qualitative de stocker l'information.

Troisième révolution de l'information(fin du XIXe siècle) est associée à l'invention de l'électricité, grâce à laquelle sont apparus le télégraphe, le téléphone, la radio, qui permettaient de transmettre rapidement des informations sur n'importe quelle distance. Cette étape est importante pour l'informatique car des outils de communication de l'information sont apparus.

La quatrième révolution de l'information(années 70 du XXe siècle) est associée à l'invention de la technologie des microprocesseurs et à l'émergence des ordinateurs personnels. Peu de temps après, les télécommunications informatiques ont émergé, modifiant radicalement le stockage et la récupération d'informations.

Depuis le milieu du 20e siècle, depuis l'avènement des dispositifs électroniques de traitement et de stockage de l'information (ordinateurs, puis ordinateur personnel), une transition progressive de industriel société à société de l'information.

Société industrielle

A partir du XVIIe siècle environ, dans le processus de formation de la production mécanique, le problème de la maîtrise énergie(des machines et des machines-outils devaient être mises en mouvement).

Dans un premier temps, les méthodes de maîtrise de l'énergie du vent et de l'eau ont été améliorées, puis l'humanité a pris possession de l'énergie thermique (au milieu du XVIIIe siècle, une machine à vapeur a été inventée, et à la fin du XIXe siècle - un Moteur à combustion).

La transition vers une société industrielle est associée à la deuxième révolution de l'information - l'invention de l'électricité et de la radio.

A la fin du XIXe siècle, la maîtrise de énergie électrique, un générateur électrique et un moteur électrique ont été inventés. Et enfin, au milieu du vingtième siècle, l'humanité a pris possession de énergie atomique.

La maîtrise de l'énergie a permis le passage à la production en série de biens de consommation mécanique, société industrielle.

Société industrielle Est une société déterminée par le niveau de développement de l'industrie et sa base technique.

Dans une société industrielle, le processus d'innovation dans la production joue un rôle important - l'introduction dans la production des dernières réalisations de la pensée scientifique et technique: inventions, idées, propositions. Ce processus est appelé innovant.

Le critère pour évaluer le niveau de développement d'une société industrielle n'est pas seulement le niveau de développement de la production industrielle. Le volume de biens de consommation produits est également pris en compte : voitures, réfrigérateurs, machines à laver, téléviseurs, etc.

4. Société de l'information. Culture de l'information

Depuis le milieu du XXe siècle, depuis l'avènement des dispositifs électroniques de traitement et de stockage de l'information (ordinateurs, puis ordinateur personnel), le passage progressif de la société industrielle à informations.

La dernière révolution de l'information met au premier plan une nouvelle industrie - l'industrie de l'information associée à la production de moyens techniques, de méthodes, de technologies pour la production de nouvelles connaissances. Tous les types de technologies de l'information, en particulier les télécommunications, deviennent les composantes les plus importantes de l'industrie de l'information. La technologie de l'information moderne est basée sur les progrès de la technologie informatique et des communications.

La quatrième révolution de l'information a conduit à des changements si importants dans le développement de la société qu'un nouveau terme est apparu pour la caractériser - " Société de l'information».

Société de l'information- concept théorique de société post-industrielle ; la phase historique du développement possible de la civilisation, dans laquelle l'information et la connaissance deviennent les principaux produits de production.

La société de l'information est une étape moderne dans le développement de la civilisation avec le rôle dominant de la connaissance et de l'information, l'impact des technologies de l'information et de la communication sur toutes les sphères de l'activité humaine et la société dans son ensemble.

Particularités de la société de l'information :


  • accroître le rôle de l'information, du savoir et des technologies de l'information dans la vie de la société;

  • une augmentation du nombre de personnes employées dans les technologies de l'information, les communications et la production de produits et services d'information;

  • l'informatisation croissante de la société à l'aide de la téléphonie, de la radio, de la télévision, d'Internet, ainsi que des médias traditionnels et électroniques ;

  • création d'un espace d'information mondial qui fournit : une interaction efficace des informations entre les personnes, leur accès aux ressources d'information mondiales et la satisfaction de leurs besoins en produits et services d'information.
Comme critères pour le développement de la société de l'information vous pouvez lister les éléments suivants :

  • disponibilité des ordinateurs,

  • niveau de développement des réseaux informatiques

  • la part de la population employée dans le domaine de l'information, ainsi que l'utilisation des technologies de l'information dans leurs activités quotidiennes.
Dans la société de l'information, les activités des individus et des groupes dépendront de plus en plus de leur conscience et de leur capacité à utiliser efficacement les informations disponibles. Avant d'entreprendre toute action, il est nécessaire d'effectuer un gros travail sur la collecte et le traitement de l'information, sa compréhension et son analyse et de trouver la solution la plus rationnelle.

Dans la société de l'information, une information de qualité circule en abondance, et il existe également tous les moyens nécessaires à son stockage, sa diffusion et son utilisation. L'information est facilement et rapidement diffusée selon les besoins des personnes et des organisations intéressées.

L'informatisation a changé la nature du travail dans les industries traditionnelles - des systèmes robotiques sont apparus, des éléments de technologie des microprocesseurs sont introduits partout. Par exemple, l'industrie des machines-outils aux États-Unis employait 330 000 personnes en 1990, et en 2005, il restait 14 000 personnes en raison de l'introduction de robots et de manipulateurs.

Dans la société de l'information, non seulement la production changera, mais aussi tout le mode de vie, le système de valeurs. Par rapport à une société industrielle, où tout vise la production et la consommation de biens, dans une société de l'information, les moyens et le produit de production deviendront intelligence et savoir, ce qui, à son tour, entraînera une augmentation de la proportion de travail mental. Une personne aura besoin de la capacité d'être créative, la demande de connaissances augmentera.

Selon un certain nombre d'experts, les États-Unis achèveront la transition globale vers la société de l'information d'ici 2020. Japon et la plupart des pays d'Europe occidentale d'ici 2030-2040. En Russie, il existe un certain nombre de conditions préalables objectives pour sa transition vers l'état de la société de l'information: le développement rapide de la base matérielle de la sphère de l'information, l'informatisation de nombreuses branches de production et de gestion, l'entrée active dans la communauté mondiale, etc. Il est important que le mouvement de la Russie vers la société de l'information soit mis en œuvre par l'État en tant qu'objectif stratégique prioritaire.

En ce début de XXIe siècle, le tableau de la société de l'information dressé par les théoriciens se dessine peu à peu des contours visibles. La transformation de l'espace mondial entier en une seule société informatisée et de l'information des personnes vivant dans des maisons équipées de toutes sortes d'appareils électroniques et d'appareils «intelligents» est prédite. Les activités humaines se concentreront principalement sur le traitement de l'information, tandis que la production matérielle et la production d'énergie seront confiées à des machines.

Au cours de la transition vers la société de l'information, une personne doit se préparer à la perception et au traitement rapides de grandes quantités d'informations, apprendre à travailler avec des moyens, des méthodes et des technologies modernes.

La société de l'information repose sur l'intelligence en tant qu'instrument de cognition, sur l'information résultant de la cognition, sur l'intérêt et l'activité dans la perception de l'information, sur le désir d'appliquer l'intellect et l'information à des fins spécifiques.

Dans les nouvelles conditions de travail, il ne suffit pas de pouvoir maîtriser et accumuler de manière autonome des informations, il est nécessaire d'apprendre une telle technologie pour travailler avec des informations, lorsque les décisions sont prises sur la base de connaissances collectives. Cela suggère qu'une personne doit avoir un certain niveau de culture du traitement de l'information - culture de l'information.

Culture de l'information Est-ce la capacité de travailler de manière ciblée avec l'information et d'utiliser la technologie de l'information informatique, les moyens et méthodes techniques modernes pour la recevoir, la traiter et la transmettre.

La culture de l'information est associée à la nature sociale d'une personne, est le produit d'une variété de capacités créatives humaines et se manifeste sous les aspects suivants :


  • dans des compétences spécifiques à l'utilisation d'appareils techniques, du téléphone à l'ordinateur personnel et aux réseaux informatiques ;

  • dans la capacité d'utiliser dans leurs activités les technologies de l'information informatique, dont les composants de base sont de nombreux produits logiciels ;

  • dans la capacité d'extraire des informations de diverses sources, à la fois de périodiques et de systèmes de communication électroniques, de les présenter sous une forme compréhensible et de pouvoir les utiliser efficacement ;

  • en possession des bases du traitement analytique de l'information ;

  • dans la capacité de travailler avec diverses informations;

  • dans la connaissance des caractéristiques des flux d'information dans leur activité professionnelle.
L'un des indicateurs essentiels de la culture de l'information dans notre pays est la connaissance de langue anglaise... La situation actuelle dans l'industrie informatique est telle que presque toutes les versions modernes des produits logiciels qui définissent les technologies de l'information sont présentées en anglais. Dans cette langue, l'interface utilisateur avec les principaux types de ressources d'information mondiales est réalisée, une interaction professionnelle avec les systèmes d'exploitation des ordinateurs est réalisée. La plupart des domaines de la science, des affaires et de la technologie sont également dominés par l'anglais.

La culture de l'information englobe bien plus qu'un ensemble de compétences pour le traitement technique de l'information à l'aide d'ordinateurs et de télécommunications.

La culture de l'information devrait devenir une partie de la culture humaine universelle.

5. Ressources d'information de la société

Les types traditionnels de ressources publiques sont les matières premières, les matières premières (naturelles), l'énergie, le travail, les ressources financières. L'un des types de ressources les plus importants dans la société moderne est ressources d'information.

Au fil du temps, l'importance des ressources d'information augmente. Les ressources d'information deviennentmarchandise , dont le coût sur le marché est comparable au coût des ressources traditionnelles.

Dans la loi fédérale "sur l'information, l'informatisation et la protection de l'information", le concept de ressources d'information est défini comme suit :

Ressources d'information- ce sont des documents individuels ou des ensembles de documents, ainsi que des documents et des ensembles de documents dans les systèmes d'information : bibliothèques, archives, fonds, banques de données, etc.

Les ressources d'information comprennent également toutes les connaissances scientifiques et techniques, les œuvres littéraires et artistiques, de nombreuses autres informations d'importance publique et étatique, enregistrées sous n'importe quelle forme, sur n'importe quel support.

Les ressources informationnelles de la société sont actuellement considérées comme des ressources stratégiques, d'importance similaire aux ressources matérielles, matières premières, énergétiques, de main-d'œuvre et financières. Cependant, il existe une différence importante entre les ressources d'information et les autres :

Toute ressource, à l'exception de l'information, disparaît après utilisation.

Le carburant est brûlé, les finances sont dépensées, etc., mais la ressource d'information reste "indestructible", elle peut être utilisée de nombreuses fois, elle est copiée sans restrictions.

Dans les documents et ensembles de documents visés par la loi fédérale "sur l'information, l'informatisation et la protection de l'information", les connaissances que possédaient les personnes qui les ont créés sont présentées sous diverses formes. Ainsi, les ressources informationnelles sont des connaissances préparées par des personnes pour un usage social dans la société et enregistrées sur un support matériel... Les ressources d'information de la société, si elles sont comprises comme des connaissances, sont aliénées à ceux qui les ont créées, accumulées, généralisées et analysées. Ces connaissances se sont matérialisées sous forme de documents, de bases de données, de bases de connaissances, d'algorithmes, de programmes informatiques, ainsi que d'œuvres d'art, de littérature et de science.

Les ressources d'information sont reconnues comme l'un des types de ressources les plus importants dans n'importe quel pays. Dans les pays les plus développés, ils font l'objet d'une attention particulière.

Par exemple, aux États-Unis, il existe un programme spécial "National Information Infrastructure". Elle doit assurer le soutien de l'État aux producteurs de ressources informationnelles, ainsi que l'accès à celles-ci pour tout utilisateur. Les principales priorités de ce programme sont :


  • les ressources d'information de l'État créées sur la base d'informations gouvernementales ;

  • ressources d'information des bibliothèques;

  • ressources d'information dans les domaines de l'éducation, des soins de santé et de l'écologie.
Un programme similaire « Structure européenne de l'information » a été adopté par l'Union européenne.

Les ressources informationnelles d'un pays, d'une région ou d'une organisation doivent être considérées comme des ressources stratégiques, d'importance similaire aux stocks de ressources matérielles : matières premières, énergie, minéraux.

Le développement des ressources mondiales d'information a permis de :


  • transformer l'activité de fourniture de services d'information en une activité humaine globale ;

  • former un marché mondial et national pour les services d'information;

  • créer toutes sortes de bases de données de ressources des régions et des États, auxquelles un accès relativement peu coûteux est possible ;

  • augmenter la validité et l'efficacité des décisions prises dans les entreprises, les banques, les bourses, l'industrie, le commerce grâce à l'utilisation opportune des informations nécessaires.
Ainsi, l'objectif principal de la politique de l'État de tout pays devrait être de créer des conditions favorables à la création de ressources d'information.

Classification des ressources d'information. Toute classification des ressources informationnelles de la société s'avère incomplète. Une division supplémentaire plus détaillée peut être faite au sein de chaque classe.


  • Ressources de la bibliothèque. D'énormes ressources d'information sont cachées dans les bibliothèques. Les formes traditionnelles (papier) de leur présentation dominent, mais de plus en plus de ressources de bibliothèque ces dernières années sont transférées sur une base numérique (sans papier).

  • Ressources d'archives. Les archives cachent des documents (parfois centenaires) liés à l'histoire et à la culture du pays. Les volumes de documents d'archives sont énormes.

  • Informations scientifiques et techniques. Tous les pays développés disposent de systèmes spécialisés d'information scientifique et technique. Il s'agit notamment de nombreuses éditions spéciales, services de brevets, etc. Les informations de ce type sont souvent un produit coûteux.

  • Informations juridiques et informations sur les cultures d'État (de pouvoir). Codes de lois, codes, règlements, autres types d'informations juridiques, sans lesquels aucun État ne peut exister.

  • Informations sur l'industrie. Toute sphère sociale industrielle agraire et d'autres sphères de la société ont leurs propres ressources d'information de branche. Les ressources informationnelles du secteur de la défense, du système éducatif, etc. sont énormes.

  • Informations financières et économiques

  • Informations sur les ressources naturelles etc.

6. Services et produits d'information. Étapes de développement des moyens techniques et des ressources d'information

Actuellement, dans de nombreux pays formés marché national des ressources d'information... Ce marché est similaire au marché traditionnel des ressources. Les produits du marché des ressources d'information peuvent être :


  • informations des ménages sur l'accès aux biens et services matériels, leur coût;

  • informations à caractère scientifique et technique (articles scientifiques, résumés, encyclopédies, etc.) ;

  • logiciels d'ordinateur;

  • bases de données, systèmes d'information, etc.
Comme dans tout marché, il y a des fournisseurs (vendeurs) et des consommateurs (acheteurs) sur le marché des ressources d'information. Fournisseurs- ce sont les producteurs d'informations ou leurs propriétaires (centres de création et de stockage de bases de données, services de communications et de télécommunications, sociétés commerciales spécialisées dans l'achat et la vente d'informations, etc.).

Consommateurs d'informations- nous sommes tous des individus, ainsi que des entreprises qui aujourd'hui ne pourraient pas fonctionner sans informations, etc.

Les ressources d'information sont à la base de la création produits d'information... Un produit d'information, résultant de l'activité intellectuelle humaine, doit être enregistré sur un support tangible sous forme de documents, articles, revues, programmes, livres, etc.

L'informatique est une science qui étudie les propriétés de l'information, ainsi que les manières de présenter, d'accumuler, de traiter et de transmettre l'information à l'aide de moyens techniques. En informatique, il existe trois directions principales : 1. L'informatique théorique - étudie la théorie de l'information, la théorie des algorithmes ; 2. Informatique pratique - étudie la programmation et l'utilisation de programmes appliqués; 3. Informatique technique - étudie la conception, le développement et l'utilisation de moyens techniques.


Information (de Lat. Information) - informations, connaissances et messages reçus par une personne de diverses sources. Le concept d'information est l'un des fondamentaux de la science moderne. Avec des concepts tels que la matière, l'énergie, l'espace et le temps, il constitue la base de l'image scientifique du monde. Il est également impossible de déterminer sans ambiguïté ce qu'est une information, tout comme il est impossible de le faire pour les concepts de "temps", "énergie"... L'information dans la vie quotidienne est comprise comme une information qui nous intéresse sur le monde qui nous entoure et les processus qui s'y déroulent, perçus et interprétés par une personne ou un appareil spécial. Les informations de la vie quotidienne sont comprises comme des informations qui nous intéressent sur le monde qui nous entoure et les processus qui s'y déroulent, perçues et interprétées par une personne ou des dispositifs spéciaux. En technologie, l'information est comprise comme des messages sous forme de signes ou de signaux, stockés, transmis et traités à l'aide de moyens techniques. En technologie, l'information est comprise comme des messages sous forme de signes ou de signaux, stockés, transmis et traités à l'aide de moyens techniques. L'information en théorie de l'information ne signifie pas n'importe quelle information, mais seulement celles qui suppriment ou réduisent complètement l'incertitude qui existe avant qu'elle ne soit reçue. L'information en théorie de l'information ne signifie pas n'importe quelle information, mais seulement celles qui suppriment ou réduisent complètement l'incertitude qui existe avant qu'elle ne soit reçue. L'information en théorie sémantique (le sens d'un message) est comprise comme une information avec nouveauté. L'information en théorie sémantique (le sens d'un message) est comprise comme une information avec nouveauté. En informatique, l'information est considérée comme le produit de l'interaction de données et de méthodes de leur traitement, adéquate au problème à résoudre. En informatique, l'information est considérée comme le produit de l'interaction de données et de méthodes de leur traitement, adéquate au problème à résoudre.


L'information est toujours associée à un support matériel. Le support d'informations est un support d'enregistrement, de stockage et de transmission d'informations. Le support d'information peut être : 1. Tout objet matériel ; 2. Vagues de nature différente ; 3. Substance dans divers états. La méthode de transfert d'informations est un signal (de l'anglais Sign - signe, symbole). Un signal est un processus physique qui a une valeur informationnelle. Le signal peut être analogique (continu) ou discret (en prenant un nombre fini de valeurs à un nombre fini d'instants).Tout signal est porté soit par la matière (texte, art rupestre, gènes, etc.), soit par énergie (son, lumière, ondes radio, etc.) Cela signifie que l'information est toujours associée à un support matériel.


Par voie de perception : Par voie de perception : o visuelle, o auditive, o tactile, o olfactive, o gustative. Par la forme de présentation : Par la forme de présentation : o texte, o numérique, o graphique, o sonore. Par degré d'importance : Par degré d'importance : o Personnel (connaissance, compétences, projets, sentiments, intuition, expérience, mémoire héréditaire) o Spécial (scientifique, industriel, technique, managérial) o Public (socio-politique, vulgarisation, quotidien , esthétique)


1. Objectivité - Subjectivité (l'information est objective, si elle ne dépend pas de l'opinion, du jugement de quelqu'un d'autre) 2. Fiabilité - manque de fiabilité ou mensonge (l'information est fiable si elle reflète la réalité) 3. Intégralité - Incomplétude ou insuffisance, ainsi que la redondance (l'information est complète si elle est suffisante pour comprendre et prendre une décision) 4. Pertinence - Obsolète ou obsolète, ainsi que prématurée (l'information est pertinente, si elle est importante, significative pour le moment) 5. Utilité ou Valeur - Inutilité (l'utilité de l'information est évaluée par les tâches que nous pouvons résoudre avec son aide) 6. Compréhensibilité - Incompréhensibilité (l'information est compréhensible si elle est exprimée dans une langue accessible au destinataire)


Le processus d'information est un ensemble d'actions séquentielles (opérations) effectuées sur l'information pour obtenir un résultat (atteinte d'un objectif). L'information se manifeste précisément dans les processus d'information. Les processus d'information se déroulent toujours dans n'importe quel système (social, sociotechnique, biologique, etc.) Les processus d'information les plus courants sont : la collecte, la transformation, l'utilisation de l'information. Les principaux processus d'information étudiés au cours de l'informatique sont : la recherche, la sélection, le stockage, la transmission, le codage, le traitement, la protection de l'information. Un ordinateur est un appareil universel pour l'exécution automatisée de processus d'information.


Le stockage de l'information est nécessaire à sa diffusion dans le temps. Le stockage d'informations est une information organisée d'une certaine manière sur des supports externes, destinée à un stockage à long terme et à une utilisation permanente. Le stockage de l'information dépend de son support (un livre est une bibliothèque, une image est un musée, une photographie est un album). Les principaux référentiels d'informations : Pour l'homme - la mémoire, y compris la mémoire génétique. Pour une personne - mémoire, y compris la mémoire génétique. Pour la société - bibliothèques, vidéothèques, bibliothèques musicales, archives, musées, etc. Pour la société - bibliothèques, vidéothèques, bibliothèques musicales, archives, musées, etc. Stockages informatiques - bases de données et banques de données, systèmes de recherche d'informations, encyclopédies électroniques, médiathèques, etc. Stockages informatiques - bases de données et banques de données, systèmes de recherche d'informations, encyclopédies électroniques, médiathèques, etc. Les informations destinées au stockage et à la transmission sont généralement présentées sous la forme d'un document. Un document s'entend comme une information sur tout support matériel destiné à être diffusé dans l'espace et dans le temps.


Le développement humain n'aurait pas été possible sans l'échange d'informations. Pendant longtemps, les gens de génération en génération ont transmis leurs connaissances, informé du danger ou transmis des informations importantes et urgentes, échangé des informations. Par exemple, au début du 19e siècle, le service d'incendie était très développé. Dans plusieurs parties des villes, de hautes tours ont été construites, à partir desquelles les environs ont été observés. S'il y avait un incendie, un drapeau multicolore (avec l'une ou l'autre figure géométrique) était hissé sur la tour pendant la journée et plusieurs lanternes étaient allumées la nuit, dont le nombre et l'emplacement indiquaient la taille et l'emplacement du Feu. Les tours de guet ont donc été utilisées pour la signalisation - elles ont averti les services d'incendie voisins. Tour d'observation de la tour de guet à la caserne des pompiers (police). Signification obsolète de la tour de guet (défensive).


Dans tout processus de transmission ou d'échange d'informations, il y a sa source et son destinataire, et l'information elle-même est transmise par le canal de communication à l'aide de signaux: mécaniques, thermiques, électriques, etc. Dans la vie ordinaire d'une personne, tout son, lumière sont des signaux qui portent une charge sémantique. Par exemple, une sirène est une alarme sonore ; sonnerie du téléphone - un signal pour décrocher le téléphone; feu rouge - un signal interdisant de traverser la route. Un être vivant ou un appareil technique peut servir de source d'information. De la source, l'information va à l'encodeur, qui est conçu pour transformer le message original en une forme qui convient à la transmission. Vous rencontrez de tels appareils tout le temps : un microphone de téléphone, une feuille de papier, etc. Par le canal de communication, les informations entrent dans le dispositif de décodage du destinataire, qui convertit le message en une forme compréhensible pour le destinataire. Certains des dispositifs de décodage les plus sophistiqués sont l'oreille et l'œil humains. Dans le processus de transmission, des informations peuvent être perdues, déformées. Ceci est dû à diverses interférences, à la fois sur le canal de communication et lors de l'encodage et du décodage des informations (son déformé dans le téléphone, interférence avec la transmission télévisée, etc.). Les problèmes liés aux méthodes d'encodage et de décodage de l'information sont traités par une science particulière - la cryptographie.


En acquérant de l'expérience de la vie, en observant le monde qui l'entoure, en d'autres termes - en accumulant de plus en plus d'informations, une personne apprend à tirer des conclusions. Dans les temps anciens, les gens disaient qu'une personne apprend à l'aide des sens et comprend ce qui est connu par l'esprit. Une fois que nous touchons une bouilloire ou un fer chaud, nous nous en souvenons pour le reste de notre vie, et chaque fois que nous touchons accidentellement la surface chaude, nous retirons notre main. Si nous analysons pourquoi cela se produit, alors nous pouvons tirer une conclusion sur la transformation (traitement) de l'information : en touchant une surface chaude, nous avons reçu des informations à l'aide des organes du toucher, le système nerveux les a transmises1 au cerveau, où, sur la base de l'expérience, une conclusion a été tirée sur le danger, le signal du cerveau a été envoyé aux muscles des bras, qui se sont instantanément contractés. Des processus de traitement de l'information similaires se produisent au moment où, aux premiers accords d'une mélodie familière, l'humeur s'améliore immédiatement ou, au contraire, devient triste. Ce sont tous des exemples de traitement inconscient de l'information.


Dans le cas d'un traitement délibéré d'informations, une personne crée de nouvelles informations, en s'appuyant sur les informations entrantes - les informations d'entrée - et sur le stock de connaissances et d'expérience dont elle dispose. Les nouvelles informations obtenues à la suite du traitement des informations d'entrée sont appelées sorties. Informations d'entrée Processeur Informations d'entrée


Le traitement de l'information est la transformation de l'information d'un type à un autre. Habituellement, le traitement de l'information est un processus ciblé et pour une exécution réussie, l'exécuteur doit connaître la méthode de traitement, c'est-à-dire séquence d'actions, règle. Traitement de l'information sur le principe de la "boîte noire" Une boîte noire en informatique est une structure (objet, système) qui a une entrée et une sortie. Certaines entrées (également appelées paramètres) sont envoyées à l'entrée de la boîte et la sortie est reçue de la sortie. La boîte est dite noire car sa structure interne nous est inconnue. On ne sait pas exactement comment il traite les informations qui lui parviennent à l'entrée. Cependant, vous pouvez étudier cet objet par les changements entre les entrées et les sorties du système.


Différentes personnes qui ont reçu le même message ont des évaluations différentes de sa capacité d'information, c'est-à-dire de la quantité d'informations qu'il contient. C'est parce que la connaissance qu'ont les gens des événements, des phénomènes mentionnés dans le message, avant que le message ne soit reçu, était différente. Par conséquent, ceux qui en savaient peu considéreront qu'ils ont reçu beaucoup d'informations, tandis que ceux qui en savaient plus peuvent dire qu'ils n'ont pas reçu d'informations du tout. La quantité d'informations dans un message dépend donc de la nouveauté du message pour le destinataire. Dans ce cas, la quantité d'informations dans le même message doit être déterminée séparément pour chaque destinataire, c'est-à-dire ont un caractère subjectif .. Mais les choses subjectives ne se prêtent pas à la comparaison et à l'analyse, pour leur mesure, il est impossible de choisir une unité de mesure commune. Dans ce cas, la quantité d'informations dans le même message doit être déterminée séparément pour chaque destinataire, c'est-à-dire ont un caractère subjectif .. Mais les choses subjectives ne se prêtent pas à la comparaison et à l'analyse, pour leur mesure, il est impossible de choisir une unité de mesure commune. Cette. du point de vue de l'information en tant que nouveauté, nous ne pouvons pas évaluer sans ambiguïté et objectivement la quantité d'informations contenues dans le message même le plus simple, mais qu'en est-il de la quantité d'informations contenues dans une découverte scientifique, un nouveau style musical, une nouvelle théorie de la développement… Dès lors, lorsque l'information est considérée comme la nouveauté du message pour le destinataire, la question de la mesure de la quantité d'information ne se pose pas.


Mesure de l'information dans la théorie de l'information (l'information en tant qu'incertitude supprimée) L'obtention d'informations en même temps signifie une augmentation des connaissances, ce qui, à son tour, signifie une diminution de l'ignorance ou de l'incertitude de l'information. Le choix de l'un des deux messages également probables ("oui" ou "non", "1" ou "0") est pris comme unité de quantité d'informations. On l'appelle aussi un peu. La question de la valeur de cette information pour le destinataire est d'un autre domaine. Une approche scientifique de l'évaluation des messages a été proposée dès 1928 par Ralph Hartley. La formule de calcul a la forme : ou ou Où N est le nombre d'événements équiprobables (incertitude de connaissance) i est la quantité d'informations


Comme unité d'information, nous avons convenu d'accepter un bit (bit binaire anglais, chiffre est un chiffre binaire). Un peu dans la théorie de l'information est la quantité d'informations nécessaires pour distinguer deux messages également probables. Par exemple : 1. lors du lancer d'une pièce de monnaie : « la pile est tombée », « la tête est tombée » ; 2. sur la page du livre : "le nombre de lettres est pair", "le nombre de lettres est impair".


Disons que nous devons trouver ou définir quelque chose dans un système particulier. Il existe une méthode de recherche telle que "halving". Par exemple, quelqu'un pense à un nombre de 1 à 100, tandis qu'un autre doit le deviner, n'obtenant que des réponses "oui" ou "non". La question est posée : le nombre est-il inférieur ? Répondre oui et non réduira la zone de recherche de moitié. Ensuite, selon le même schéma, la gamme est à nouveau divisée en deux. En fin de compte, le numéro caché sera trouvé. Comptons le nombre de questions que vous devez poser pour trouver le nombre prévu. Disons le nombre caché 27. Commencé : Plus de 50 ? Pas plus de 25 ? Oui Plus de 38 ? Pas moins de 32 ? Oui Moins de 29 ? Oui Plus de 27 ? Non Est-ce le numéro 26 ? Non Si le nombre n'est pas 26 et pas plus de 27, alors c'est clairement 27. Pour deviner le nombre de 1 à 100 par la méthode du « halving », nous avons eu besoin de 7 questions. Quelqu'un peut se poser la question : pourquoi est-il nécessaire de poser des questions de cette manière ? Après tout, par exemple, vous pouvez simplement demander : est-ce le numéro 1 ? Est-ce le numéro 2 ? Etc. Mais alors vous aurez besoin de beaucoup plus de questions (la possibilité que vous soyez un télépathe et devinez juste la première fois n'est pas envisagée). La réduction de moitié est le moyen rationnel le plus court pour trouver un nombre. La quantité d'informations incluses dans la réponse « oui » ou « non » est égale à un bit. En effet, après tout, un bit peut être à l'état 1 ou 0. Ainsi, pour deviner le nombre de 1 à 100, il nous fallait sept bits (sept réponses "oui" - "non").


Du point de vue de considérer l'information comme une incertitude supprimée, la quantité d'information dépend de la probabilité de recevoir un message particulier. De plus, plus la probabilité d'un événement est grande, moins le message contient d'informations sur un tel événement. En d'autres termes, la quantité d'informations dépend de la probabilité que cet événement se produise. Une approche scientifique du cas plus général du calcul de la quantité d'informations dans un message concernant l'un des événements N, mais non plus équiprobables, a été proposée par Claude Shannon en 1948. Formule de Shannon : I = (p 1 log 2 p 1 + p 2 log 2 p p N log 2 p N) où p i est la probabilité que le ième message soit sélectionné dans l'ensemble des N messages.


Afin de stocker des données de texte dans un ordinateur, vous devez d'abord encoder tous les caractères pouvant être utilisés dans le texte. Le texte peut contenir des chiffres, des lettres majuscules et minuscules, des espaces, des signes de ponctuation et des caractères spéciaux (par exemple, # & %), il est donc nécessaire que la cardinalité de l'alphabet, y compris tous les caractères codés, soit suffisamment grande. Si les lettres incluses dans le texte ne peuvent être que latines ou russes, alors pour coder un caractère, il suffit d'utiliser des cellules de mémoire de 8 bits, c'est-à-dire 1 octet de mémoire (puisque 8 emplacements mémoire peuvent encoder 2 8 = 256 caractères différents). Dans ce cas, il est nécessaire de se mettre d'accord sur quelle combinaison de cellules actives et inactives chaque caractère sera codé. Par exemple, le caractère espace est codé avec une combinaison et la lettre majuscule A est codée avec une combinaison


Actuellement, il existe plusieurs codages de caractères à un octet (8 bits) qui incluent des lettres russes : Windows-1251, ASCII, KOI-8. Avec la diffusion d'Internet, il est devenu nécessaire d'utiliser un jeu de caractères qui contiendrait les lettres de toutes les langues existantes. Par conséquent, il a été décidé d'utiliser 2 octets, ou des cellules de mémoire de 16 bits, pour coder chaque caractère. Cela vous permet d'encoder 2 16 = 65536 caractères différents. Ce codage à deux octets (16 bits) est appelé Unicode.


Dans tout codage à un octet, chaque caractère a une taille de 1 octet (ils disent que la taille des informations d'un caractère est de 1 octet). Si le texte se compose de K caractères (y compris les espaces, les signes de ponctuation, etc.), alors le volume d'informations d'un tel texte est de K octets (ou 8K bits) quelle que soit la signification du texte. 2 i = N I = Ki i - poids informationnel d'un caractère (combien de bits un caractère porte) N - puissance de l'alphabet (nombre de caractères dans l'alphabet) I - volume informationnel d'un message K - nombre de caractères dans un message

Question numéro 1 L'informatique comme science. Composition de l'informatique.

Terme "l'informatique" vient des mots français informations(l'information et automatique(automatique) et signifie littéralement "automatisation des informations".

Informatique est une discipline basée sur l'utilisation de la technologie informatique qui étudie la structure et les propriétés générales de l'information, ainsi que les modèles et les méthodes de sa création, de son stockage, de sa recherche, de sa transformation, de sa transmission et de son application dans diverses sphères de l'activité humaine .

directions principales:

développement de systèmes informatiques et de logiciels;

théorie de l'informationétudier les processus associés à la transmission, la réception, la transformation et le stockage de l'information ;

techniques d'intelligence artificielle qui permettent de créer des programmes de résolution de problèmes nécessitant certains efforts intellectuels lorsqu'ils sont réalisés par une personne (inférence logique, apprentissage, compréhension de la parole, perception visuelle, jeux, etc.) ;

l'analyse du système, qui consiste à analyser la finalité du système en cours de conception et à établir les exigences auxquelles il doit répondre ;

méthodes d'infographie, animations, outils multimédias;

installations de télécommunication y compris les réseaux informatiques mondiaux qui unissent toute l'humanité en une seule communauté d'informations ;

diverses applications dans la production, la science, l'éducation, la médecine, le commerce, l'agriculture et tous les autres types d'activités économiques et sociales.

L'informatique est généralement représentée comme se composant de deux parties :

    moyens techniques;

    Logiciel.

Moyens techniques, C'est matériel informatique, en anglais sont désignés par le mot Matériel.

Pour outils logiciels le terme est utilisé Logiciel, qui détermine l'équivalence du logiciel et de la machine elle-même.

En plus de ces deux branches généralement acceptées de l'informatique, une branche plus importante est distinguée - outils algorithmiques (Brainware). Cette branche est associée au développement d'algorithmes et à l'étude des méthodes et techniques pour leur construction.

Vous ne pouvez pas commencer à programmer sans d'abord développer un algorithme pour résoudre le problème.

Question numéro 2 L'information et ses données Propriétés de base.

Informations- informations sur les objets et phénomènes de l'environnement, leurs paramètres, propriétés et conditions, qui sont perçus par les systèmes d'information (organismes vivants, machines de contrôle, etc.) dans le processus de vie et de travail.

L'information est le contenu utile des données... Les données sont une forme de présentation de l'information. Une description plus complète de cette connexion est donnée en présentant trois aspects principaux (côtés) de l'information : son contenu pragmatique, sémantique et syntaxique.

L'aspect pragmatique reflète la correspondance de l'information avec la réalisation de l'objectif, c'est-à-dire détermine l'utilité des informations contenues dans les données. Ainsi, les propriétés de consommation de l'information sont évaluées.

Aspect sémantique caractérise le contenu sémantique de l'information et détermine le degré de correspondance entre l'objet informationnel et son image contenue dans l'information (données).

Aspect syntaxique l'information est associée à la forme de sa présentation et n'affecte pas son contenu sémantique.

Par conséquent, les données ne représentent que l'aspect syntaxique de l'information.

Propriétés des informations

propriété principale (ce qu'on appelle l'indicateur de qualité) de l'information - son valeur est déterminé par l'importance des tâches que le sujet de l'information (personne) peut résoudre avec son aide. La valeur de l'information dépend de son importance pour la résolution d'un problème particulier, ainsi que de son utilisation future.

Utilitaire l'information est déterminée par le degré d'utilité de son utilisation pour résoudre les problèmes auxquels est confronté le sujet de l'information. L'utilité de l'information dépend de ses propriétés telles que exhaustivité, pertinence et fiabilité.

Crédibilité l'information est déterminée par le degré de réflexion dans l'information des propriétés de l'objet d'information. L'information est fiable si elle reflète l'état réel des choses. Des informations inexactes peuvent entraîner des malentendus ou des décisions incorrectes. Au fil du temps, une information fiable peut devenir peu fiable, car elle a la propriété de devenir obsolète, c'est-à-dire qu'elle cesse de refléter le véritable état des choses.

Intégralité l'information est déterminée par la mesure dans laquelle les propriétés de l'objet d'information sont reflétées dans l'information, qui sont nécessaires pour résoudre le problème posé au sujet.

L'information est complète si elle est suffisante pour comprendre et prendre des décisions. Les informations incomplètes et redondantes entravent la prise de décision ou peuvent conduire à des erreurs.

L'exactitude de l'information est déterminée par le degré de sa proximité avec l'état réel d'un objet, d'un processus, d'un phénomène, etc.

Pertinence l'information est déterminée par sa capacité à répondre aux tâches en cours de résolution. Seule une information opportune peut apporter les avantages escomptés. Les informations reçues prématurément (quand elles ne peuvent pas être absorbées) et leur retard sont indésirables.

Compréhensibilité l'information est déterminée par la capacité à comprendre le contenu des données obtenues et à se faire une idée de l'objet d'information. C'est l'aspect sémantique de l'information. L'information devient compréhensible si elle est exprimée dans la langue parlée par ceux à qui l'information est destinée. Si des informations précieuses et opportunes sont exprimées de manière incompréhensible, elles peuvent devenir inutiles.

La possibilité d'obtenir des informations par le sujet le détermine disponibilité ... La disponibilité de l'information se caractérise par la capacité d'accéder à la source de l'information. L'information doit être présentée sous une forme accessible (selon son niveau de perception). Par conséquent, les mêmes questions sont présentées de différentes manières dans les manuels scolaires et les publications scientifiques. Les informations sur le même sujet peuvent être présentées brièvement (de manière concise, sans détails insignifiants) ou longuement (en détail, verbeux).

Question numéro 3 Formes de présentation et de transmission de l'information. Encodage des données

Types d'informations :à l'aide de la vue est perçu informations visuelles , à l'aide de l'audition informations sonores. Selon le degré d'importance de l'information pour le sujet, l'information est divisée en types : personnel, spécial, public .

Pour les classes d'objets d'information, ces types d'informations sont distingués comme Naturel (pour les sites naturels), social , technique ... Au sein de ces espèces, il est possible de les diviser davantage en sous-espèces, par exemple, informations génétiques, informations socio-économiques, etc.

Par type de données, les informations sont divisées en informations numériques, textuelles, graphiques, sonores et vidéo.

Comment les informations sont transmises :

L'information est transmise sous forme de messages de la source d'information à son destinataire via un canal de communication entre eux. La source envoie le message transmis, qui est codé dans le signal transmis. Ce signal est envoyé sur le canal de communication. En conséquence, un signal reçu apparaît dans le récepteur, qui est décodé et devient un message reçu.

Par exemple, un message, contenant des informations sur les prévisions météorologiques, est transmis au récepteur(au spectateur) de la source- météorologue spécialiste via le canal de communication- les équipements de transmission de télévision et la télévision.

La transmission d'informations par les canaux de communication s'accompagne souvent de l'influence d'interférences, provoquant des distorsions et des pertes d'informations.

Encodage des données

Code- système de symboles ou de signaux.

Longueur du code- le nombre de caractères utilisés pour représenter les informations encodées Encodage des données Est le processus de formation d'une certaine représentation de l'information. Décodage- décodage de caractères codés, conversion d'un code de caractère en son image Encodage binaire- les informations de codage sous forme de 0 et 1.

En informatique - cela s'appelle le codage binaire et est basé sur la représentation des données sous la forme d'une séquence de seulement deux caractères : 0 et 1. Ces caractères sont appelés chiffres binaires, en anglais - chiffre binaire ou bit abrégé (bit). Un bit peut exprimer deux concepts : 0 ou 1 (oui ou non, noir ou blanc, vrai ou faux, etc.).

Question n° 4 Unités pour mesurer la quantité d'informations.

Est-il possible de mesurer objectivement la quantité d'informations ? Le résultat le plus important de la théorie de l'information est la conclusion :

La notion de « quantité d'information » repose sur le fait que l'information contenue dans le message peut être interprétée dans le sens de sa nouveauté ou de la réduction de l'incertitude de notre connaissance sur l'objet.

Ainsi, l'ingénieur américain R. Hartley (1928) considère le processus d'obtention d'informations comme la sélection d'un message à partir d'un ensemble fini à l'avance donné de N messages équiprobables, et la quantité d'informations I contenue dans le message sélectionné est déterminée comme le logarithme binaire de N.

Supposons que vous ayez besoin de deviner un nombre parmi un ensemble de nombres de un à cent. En utilisant la formule de Hartley, vous pouvez calculer la quantité d'informations requise pour cela : I = log 2 100 = 6,644. C'est-à-dire que le message concernant le nombre correctement deviné contient une quantité d'informations approximativement égale à 6 644 unités d'informations.

Pour les messages inégaux, le scientifique américain Claude Shannon a proposé en 1948 une autre formule pour déterminer la quantité d'informations, prenant en compte la probabilité inégale possible de messages dans l'ensemble.

Il est facile de voir que si les probabilités p 1 , ..., p N sont égaux, c'est-à-dire que chacun d'eux est égal 1 / N, puis la formule de Shannon devient la formule de Hartley.

Nous avons convenu d'accepter un bit comme unité d'information. (Anglais. bit- chiffre binaire).

Le bit est la plus petite unité de mesure. En pratique, une unité plus grande est souvent utilisée - octetégal à huit bits. C'est exactement huit bits qui sont nécessaires pour coder l'un des 256 caractères de l'alphabet du clavier de l'ordinateur (256 = 2 8).

Des unités d'information dérivées encore plus grandes sont également largement utilisées :

    1 kilo-octet (Ko) = 1024 octets = 2 10 octets,

    1 mégaoctet (Mo) = 1024 Ko = 2 20 octets,

    1 Gigaoctet (Go) = 1024 Mo = 2 30 octets.

Récemment, en lien avec l'augmentation de la quantité d'informations traitées, des unités dérivées telles que :

    1 Téraoctet (To) = 1024 Go = 2 40 octets,

    1 pétaoctet (Po) = 1024 To = 2 50 octets.

Pour une unité d'information, on pourrait choisir la quantité d'information nécessaire pour distinguer, par exemple, dix messages équiprobables. Il ne s'agira alors pas d'un binaire (bit), mais d'une unité décimale d'information (dit).

Question n° 5-N° 6 Classification des générations d'ordinateurs

quels ordinateurs appartiennent à la première génération?

À première génération comprennent généralement des voitures créées au tournant des années 50. Leurs schémas utilisés tubes électroniques... Ces ordinateurs étaient voitures énormes, peu pratiques et trop chères que seuls les grandes entreprises et les gouvernements pouvaient acquérir. Les lampes consommaient une énorme quantité d'électricité et généraient beaucoup de chaleur.

L'ensemble de commandes était petit, le circuit de l'unité arithmétique et logique et de l'unité de contrôle était assez simple et il n'y avait pratiquement pas de logiciel. Les indicateurs de la quantité de RAM et des performances étaient faibles. Pour l'entrée-sortie, des bandes perforées, des cartes perforées, des bandes magnétiques et des dispositifs d'impression ont été utilisés.

La performance est d'environ 10 à 20 000 opérations par seconde.

Mais ce n'est que le côté technique. Un autre est très important - les manières d'utiliser les ordinateurs, le style de programmation, les fonctionnalités du logiciel.

Les programmes pour ces machines ont été écrits dans le langage d'une machine particulière... Le mathématicien qui a fait le programme s'est assis au panneau de commande de la machine, a entré et a débogué les programmes, et les a calculés. Le processus de débogage était le plus long.

Malgré les capacités limitées, ces machines ont permis d'effectuer les calculs les plus complexes nécessaires à la prévision météorologique, à la résolution des problèmes du nucléaire, etc.

L'expérience avec la première génération de machines a montré qu'il existe un écart énorme entre le temps qu'il faut pour développer des programmes et le temps qu'il faut pour calculer.

Ils ont commencé à surmonter ces problèmes grâce au développement intensif d'outils d'automatisation de la programmation, à la création de systèmes de programmes de service qui simplifient le travail sur la machine et augmentent l'efficacité de son utilisation. Ceci, à son tour, a nécessité des changements importants dans la structure des ordinateurs, visant à la rapprocher des exigences découlant de l'expérience de l'exploitation des ordinateurs.

Machines domestiques de première génération : MESM (petite machine à calculer électronique), BESM, Strela, Ural, M-20.

Quels ordinateurs appartiennent à la deuxième génération

Deuxième génération technologie informatique - machines conçues vers 1955-65. Ils se caractérisent par l'utilisation en eux comme tubes électroniques et portes logiques à transistors discrets... Leur mémoire vive était construite sur des noyaux magnétiques. A cette époque, la gamme d'équipements d'entrée-sortie utilisés a commencé à s'étendre, haute performance dispositifs pour travailler avec des bandes magnétiques, tambours magnétiques et les premiers disques magnétiques.

Performance- jusqu'à des centaines de milliers d'opérations par seconde, capacité mémoire- jusqu'à plusieurs dizaines de milliers de mots.

La dite langages de haut niveau , dont les moyens permettent la description de toute la séquence nécessaire d'actions de calcul sous une forme visuelle et facilement perceptible.

Un programme écrit dans un langage algorithmique est incompréhensible pour un ordinateur qui ne comprend que le langage de ses propres commandes. Par conséquent, des programmes spéciaux appelés traducteurs traduire le programme du langage de haut niveau en langage machine.

Un large éventail de programmes de bibliothèque sont apparus pour résoudre divers problèmes mathématiques. Est apparu surveiller les systèmes qui contrôlent le mode de diffusion et d'exécution des programmes. Les systèmes d'exploitation modernes ont évolué plus tard à partir des systèmes de surveillance.

Ainsi, système opérateur est un plug-in pour le dispositif de contrôle informatique.

Pour certaines machines de deuxième génération, des systèmes d'exploitation aux capacités limitées ont déjà été créés.

Les machines de deuxième génération se caractérisaient par incompatibilité logicielle, ce qui rendait difficile l'organisation de grands systèmes d'information. Par conséquent, au milieu des années 60, il y a eu une transition vers la création d'ordinateurs, compatibles avec les logiciels et construits sur une base technologique microélectronique.



Vous avez aimé l'article ? Partagez-le