Contactos

Una disciplina que estudia tanto las propiedades de la información como los métodos. Informatización. Informatización. El papel de las actividades de información en la sociedad moderna. La informática como disciplina científica

Informática Informática La Informática es una disciplina basada en el uso de la tecnología informática que estudia la estructura y propiedades generales de la información, así como los patrones y métodos de su creación, almacenamiento, búsqueda, transformación, transmisión y aplicación en diversas esferas de la actividad humana. .


El término "informática" (francés informatique) proviene de las palabras francesas información (información) y automatique (automatización) y literalmente significa "automatización de la información". La informática es una ciencia técnica que determina el campo de actividad relacionado con los procesos de almacenamiento, transformación y transmisión de información utilizando una computadora. En el extranjero, el curso se suele llamar "ciencias de la computación", que literalmente significa "ciencias de la computación".


Áreas prioritarias: desarrollo de sistemas informáticos y software; la teoría de la información, que estudia los procesos asociados a la transmisión, recepción, transformación y almacenamiento de información; modelado matemático, métodos de matemática computacional y aplicada y su aplicación a la investigación fundamental y aplicada en diversos campos del conocimiento; métodos de inteligencia artificial que simulan métodos de pensamiento lógico y analítico en la actividad intelectual humana (inferencia lógica, aprendizaje, comprensión del habla, percepción visual, juegos, etc.); análisis de sistemas, que estudia las herramientas metodológicas utilizadas para preparar y fundamentar decisiones sobre problemas complejos de diferente naturaleza;


Bioinformática, que estudia los procesos de información en sistemas biológicos; informática social, que estudia los procesos de informatización de la sociedad; métodos de gráficos por ordenador, animación por ordenador, herramientas multimedia; sistemas y redes de telecomunicaciones, incluidas las redes informáticas mundiales, que unen a toda la humanidad en una sola comunidad de información; una variedad de aplicaciones que cubren la producción, la ciencia, la educación, la medicina, el comercio, la agricultura y todos los demás tipos de actividades económicas y sociales.


Los medios técnicos, o hardware de computadora, en inglés se indican con la palabra Hardware, que literalmente se traduce como "productos duros". Literalmente "productos blandos"), que enfatiza la equivalencia de la máquina en sí y el software, así como la capacidad el software para modificar, adaptar y desarrollar


La programación de un problema siempre está precedida por el desarrollo de una forma de resolverlo en forma de una secuencia de acciones que van desde los datos iniciales hasta el resultado deseado, es decir, el desarrollo de un algoritmo para resolver el problema. El término Brainware se utiliza para denotar la parte de la informática asociada al desarrollo de algoritmos y al estudio de métodos y técnicas para su construcción.


"información" El término "información" proviene de la palabra latina "informatio", que significa información, aclaración, presentación. A pesar del uso generalizado de este término, el concepto de información es uno de los más controvertidos en la ciencia. y recibe diversos contenidos semánticos en diversos campos de la actividad humana


Claude Shannon, un científico estadounidense que sentó las bases de la teoría de la ciencia de la información, que estudia los procesos asociados con la transmisión, recepción, transformación y almacenamiento de información, considera la información como la incertidumbre eliminada de nuestro conocimiento sobre algo. Propiedades generales de la información , así como patrones y métodos de su creación, almacenamiento, búsqueda, transformación, transmisión y aplicación en diversos ámbitos de la actividad humana.


Las personas intercambian información en forma de mensajes Un mensaje es una forma de presentación de información en forma de habla, textos, gestos, miradas, imágenes, datos digitales, gráficos, tablas, etc. Un mismo mensaje informativo (artículo de periódico, publicidad, carta, telegrama, ayuda, historia, dibujo, transmisión de radio, etc.) puede contener una cantidad diferente de información para diferentes personas, dependiendo de sus conocimientos previos, del nivel de comprensión de este mensaje e interés en él. Por lo tanto, un mensaje escrito en japonés no transmite ninguna información nueva a una persona que no conoce este idioma, pero puede ser muy informativo para una persona que habla japonés.


Estudió en la Universidad de Michigan, donde recibió dos títulos en matemáticas e ingeniería eléctrica. Luego se trasladó al Instituto Tecnológico de Massachusetts y en 1938 defendió su tesis doctoral, en la que desarrolló los principios de la estructura lógica de una computadora, combinando el álgebra de Boole con el trabajo de los circuitos eléctricos. Este trabajo se convirtió en un punto de inflexión en la historia del desarrollo de la informática moderna y la tecnología informática. Posteriormente, Shannon trabajó en Bell Telephone Laboratories, donde aplicó nuevos principios para el diseño de centrales telefónicas. En 1948 publicó la obra "Teoría matemática de la comunicación", en la que presentó su teoría unificada de transmisión y procesamiento de información. La información en este contexto incluía todo tipo de mensajes, incluidos los transmitidos a lo largo de las fibras nerviosas de los organismos vivos. En 1956, Shannon dejó Bell Labs y al año siguiente se convirtió en profesor en el Instituto de Tecnología de Massachusetts, donde se jubiló en 1978, Shannon propuso medir la información en un sentido matemático, reduciéndola a una elección entre dos valores, o dígitos binarios, sí o no ”, sentando así las bases de la teoría de la comunicación moderna, que actualmente juega un papel importante en muchos ámbitos. En los años cincuenta, creó la "Ultimate Machine" basada en una idea de Mervin Minsky y descrita en "Una voz sobre el mar" de Arthur Clarke; esta máquina parecía una caja con un solo interruptor. Al encenderlo, su tapa se abrió, de allí apareció una mano, la cual devolvió el interruptor a su posición original y nuevamente se escondió dentro. Cuando se jubiló, se sintió completamente dominado por su antigua pasión por los malabares. Shannon construyó varias máquinas de hacer malabares e incluso creó una teoría general de los malabares que, sin embargo, no le ayudó a romper su récord personal de hacer malabares con cuatro pelotas. También probó suerte con la poesía, y también desarrolló una variedad de modelos de bolsa de valores y los probó (dice con éxito) con sus propias acciones. Pero desde principios de la década de 1960, Shannon no ha hecho prácticamente nada nuevo en la teoría de la información. Claude Shannon murió el 24 de febrero de 2001 a la edad de 84 años después de años de luchar contra el Alzheimer. Shannon Claude Elwood (n. 1916, Gaylord, Michigan), ingeniero y matemático estadounidense. Uno de los fundadores de la teoría de la información matemática. Trabajos importantes sobre la teoría de los circuitos de contacto de relé, teoría matemática de la comunicación, cibernética


Se han desarrollado varios métodos para evaluar la cantidad de información. En 1928, el ingeniero estadounidense R. Hartley consideró el proceso de obtención de información como la elección de un mensaje de un conjunto finito predeterminado de N mensajes equiprobables, y la cantidad de información I contenida en el mensaje seleccionado se determinó como el logaritmo binario de N Fórmula de Hartley: I = log 2 N Como ejemplo del uso de la fórmula de Hartley, considere un problema. Digamos que necesita adivinar un número de un conjunto de números del uno al cien. Usando la fórmula de Hartley, puede calcular cuánta información se requiere para esto: I = log2100 = 6.644. Por lo tanto, el mensaje sobre el número acertado contiene la cantidad de información aproximadamente igual a 6.644 unidades de información.


Y ahora consideremos otro problema: ¿son igualmente probables los mensajes "la mujer será la primera en salir por la puerta del edificio" y "el hombre será el primero en salir por la puerta del edificio"? Es imposible responder a esta pregunta de manera inequívoca. Todo depende del tipo de edificio del que estemos hablando. Si se trata, por ejemplo, de una estación de metro, entonces la probabilidad de salir primero por la puerta es la misma para un hombre y una mujer, y si se trata de un cuartel militar, entonces para un hombre esta probabilidad es mucho mayor que para una mujer. .


Para problemas de este tipo, el científico estadounidense Claude Shannon propuso en 1948 otra fórmula para determinar la cantidad de información, teniendo en cuenta la posible probabilidad desigual de mensajes en un conjunto. Fórmula de Shannon: I = - (p 1 log 2 p 1 + p 2 log 2 pp N log 2 p N), donde pi es la probabilidad de que el i-ésimo mensaje se seleccione en un conjunto de N mensajes Es fácil de ver que si las probabilidades p 1, ..., p N son iguales, entonces cada una de ellas es igual a 1 / N, y la fórmula de Shannon se convierte en la fórmula de Hartley.


Tomemos una moneda, por ejemplo, y dejémosla caer sobre la mesa. Caerá cara o cruz. Tenemos 2 eventos igualmente probables. Después de lanzar una moneda, obtuvimos log 2 2 = 1 bit de información. Digamos que tiramos 8 monedas. Tenemos 2 8 opciones para la caída de monedas. Entonces, después de lanzar monedas, obtenemos log = 8 bits de información. Intentemos averiguar cuánta información obtenemos después de lanzar los dados. El cubo tiene seis caras, seis eventos igualmente probables. Obtenemos: aproximadamente 2,6 bits de información.


Cuando hacemos una pregunta y es igualmente probable que obtengamos una respuesta "sí" o "no", luego de responder la pregunta, obtenemos un poco de información. En este caso, un estado generalmente se denota con el número 0 y el otro, con el número 1. Cualquier información se puede codificar con una secuencia de bits: texto, imagen, sonido, etc.


Con respecto al procesamiento de datos informáticos, se entiende por información una determinada secuencia de designaciones simbólicas (letras, números, gráficos y sonidos codificados, etc.), que conlleva una carga semántica y se presenta de una forma comprensible para un ordenador. Cada carácter nuevo en tal secuencia de caracteres aumenta el volumen de información del mensaje. Claude Shannon propuso aceptar un bit como unidad de información (dígito binario de bits en inglés). Bit en la teoría de la información es la cantidad de información requerida para distinguir entre dos mensajes igualmente probables (como "cara", "cruz", "par", "impar", etc.). En informática, un bit es la "porción" más pequeña de la memoria de la computadora necesaria para almacenar uno de los dos caracteres "0" y "1" utilizados para la representación de datos e instrucciones en la máquina.


Unidad de medida demasiado pequeña. En la práctica, se utiliza con más frecuencia una unidad mayor de bytes, igual a ocho bits. El nombre del byte fue utilizado por primera vez en 1956 por V. Buchholz cuando diseñó la primera supercomputadora IBM 7030 para un haz de bits transmitido simultáneamente en entrada- dispositivos de salida (seis piezas), más tarde en el marco del mismo proyecto se extendió un byte a ocho bits Según una de las versiones, la palabra byte sucedió como una abreviatura de la frase BInary digiT Eight ("número binario ocho"), y en el bocado resultante, la letra i fue reemplazada por y. Esto se hizo para evitar confusiones con el bit de término preexistente. Otra hipótesis es que byte es una abreviatura de BinarY TErm ("término binario").


También se utilizan ampliamente unidades de información derivadas incluso más grandes: 1 kilobyte (KB) = 1024 bytes = 2 10 bytes (1.024 ~ 10 3) 1 Megabyte (MB) = 1024 KB = 2 20 bytes (1.048.576 ~ 10 6) 1 Gigabyte ( GB)) = 1024 MB = 2 30 bytes (1,073,741,824 ~ 10 9) Recientemente, debido al aumento en la cantidad de información que se procesa, unidades derivadas como: 1 Terabyte (TB) = 1024 GB = 2 40 bytes (1,099,511,627,776 ~ 10 12 (1,180,591,620,717,411,303,424 ~ 10 21) 1 yottabyte (YB) = 1024 ZB = 2 80 bytes (1.208,925,819,614,629,174,706,176 ~ 10 24)


En realidad, los prefijos del SI kilo-, mega-, giga- deberían usarse para multiplicadores 10 3, 10 6 y 10 9, respectivamente, pero históricamente, la práctica de usar multiplicadores con potencias de dos es en realidad un 20,9% menor que 1,208,925,819,614,629,174,706,176




Adecuación sintáctica. Refleja las características formales y estructurales de la información y no afecta su contenido semántico. A nivel sintáctico se tiene en cuenta el tipo de medio y la forma de presentar la información, la velocidad de transmisión y procesamiento, el tamaño de los códigos para presentar la información, la fiabilidad y precisión de la conversión de estos códigos, etc. en este caso, el lado semántico no importa.


Adecuación semántica (semántica). Esta forma determina el grado de correspondencia entre la imagen del objeto y el objeto mismo. El aspecto semántico implica tener en cuenta el contenido semántico de la información. En este nivel se analiza la información que refleja la información, se consideran las conexiones semánticas. En informática, se establecen vínculos semánticos entre códigos para la presentación de información. Esta forma sirve para formar conceptos y representaciones, para identificar el significado, el contenido de la información y su generalización.


Adecuación pragmática (consumidor). Refleja la relación entre la información y su consumidor, el cumplimiento de la información con el objetivo de gestión, que se implementa en base a ella. Las propiedades pragmáticas de la información se manifiestan solo en presencia de la unidad de información (objeto), usuario y objetivo de gestión. El aspecto pragmático de la consideración está asociado con el valor, la utilidad de utilizar la información en el desarrollo de una solución al consumidor para lograr su objetivo. Desde este punto de vista, se analizan las propiedades del consumidor de la información. Esta forma de adecuación está directamente relacionada con el uso práctico de la información, con la correspondencia de su función objetivo con la actividad del sistema.


La medida sintáctica de la cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto. La cantidad de datos V D en un mensaje se mide por el número de caracteres (bits) en este mensaje. En diferentes sistemas numéricos, un dígito tiene un peso diferente y, en consecuencia, la unidad de medida de los datos cambia: en el sistema binario, la unidad de medida es un bit (el dígito binario de bit es un dígito binario); en notación decimal, la unidad es dit (lugar decimal).


Ejemplo: un mensaje en un sistema binario en forma de código binario de ocho bits tiene un tamaño de datos Vd = 8 bits. El mensaje en el sistema decimal en forma de un número de seis dígitos tiene el volumen de datos Vd = 6 dit.


Entropía (de la entropía griega - giro, transformación). El concepto de entropía se introdujo por primera vez en termodinámica para determinar la medida de disipación de energía irreversible. La entropía se usa ampliamente en otros campos de la ciencia: en física estadística como una medida de la probabilidad de que se realice un estado macroscópico; en la teoría de la información, una medida de la incertidumbre de una experiencia (prueba) que puede tener diferentes resultados. Todas estas interpretaciones de la entropía tienen una profunda conexión interna. La entropía es una función de un estado, es decir, cualquier estado puede asociarse con un valor de entropía completamente definido (con precisión a una constante; esta incertidumbre se elimina por convención, que en el cero absoluto la entropía también es igual a cero).


Utilizando el concepto de entropía, Clausius (1876) dio la formulación más general de la segunda ley de la termodinámica: en los procesos adiabáticos reales (irreversibles), la entropía aumenta, alcanzando su valor máximo en un estado de equilibrio (la segunda ley de la termodinámica no es absoluto, se viola durante las fluctuaciones).


La cantidad de información está determinada por la fórmula: Iβ (α) = H (β) - H (α), donde H (α) es la entropía, es decir la cantidad de información se mide cambiando (disminuyendo) la incertidumbre del estado del sistema. La entropía del sistema H (a), que tiene N estados posibles, según la fórmula de Shannon, es: donde Pi es la probabilidad de que el sistema esté en el i-ésimo estado.


En el caso de que todos los estados del sistema sean igualmente probables, su entropía está determinada por la relación donde N es el número de todos los estados posibles mostrados; m base del sistema numérico (variedad de símbolos usados ​​en el alfabeto); n es el número de dígitos (caracteres) del mensaje.


Medida semántica de información. Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para recibir un mensaje entrante, recibió el mayor reconocimiento. Para ello se utiliza el concepto de tesauro de usuario. Un diccionario de sinónimos es una recopilación de información en poder de un usuario o de un sistema.


Dependiendo de la relación entre el contenido semántico de la información S y el tesauro del usuario Sp, cambia la cantidad de información semántica Ic, percibida por el usuario y posteriormente incluida por él en su tesauro. La naturaleza de esta dependencia se muestra en la figura en Sp = 0, el usuario no percibe, no comprende la información entrante; con Sp, el usuario lo sabe todo, no necesita la información entrante.


Al evaluar el aspecto semántico (significativo) de la información, es necesario esforzarse por conciliar los valores de S (contenido semántico de la información) y Sp (tesauro del usuario). Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, que se define como la relación entre la cantidad de información semántica y su volumen: Ic - la cantidad de información semántica V D - la cantidad de datos


Una medida pragmática de información. Esta medida determina la utilidad de la información (valor) para el logro del objetivo del usuario. Esta medida también es un valor relativo, debido a las peculiaridades de utilizar esta información en un sistema en particular. Es recomendable medir el valor de la información en las mismas unidades (o próximas a ellas) en las que se mide la función objetivo.


Información continua y discreta La información sobre diversos fenómenos naturales y procesos tecnológicos es percibida por una persona (con la ayuda de sus sentidos y varios equipos de medición) en forma de ciertos campos. Estos campos se consideran continuos. A veces, el término información analógica también se utiliza para este propósito. Pero cualquier información continua puede aproximarse mediante información discreta con cualquier grado de precisión.


Los resultados de medir cualquier cantidad escalar se representan en última instancia en forma numérica, y dado que, para una precisión de medición dada, estos números se pueden representar como conjuntos finitos de dígitos, la forma discreta de representación de la información a menudo se identifica con información digital. señal (sonido, imagen) en forma digital, se deben realizar dos operaciones básicas: muestreo, cuantificación


Discretización Representación de una señal analógica continua mediante una secuencia de sus valores (muestras). Estas muestras se toman en momentos separados entre sí por un intervalo llamado intervalo de muestreo, mientras que el recíproco del intervalo entre muestras se denomina tasa de muestreo.


Con mayor frecuencia en la tecnología de televisión, las imágenes se utilizan con una resolución: 640 x 480 NTSC (4: 3) 768 x 576 PAL, SECAM (4: 3) 1920 x 1080 HDTV (16: 9) Foto digital: relación 4: xxx 1920 Fotografía digital: relación 3: 2 9 x 6 15 x x 24


Está claro que cuanto menor sea el intervalo de muestreo y, por consiguiente, cuanto mayor sea la frecuencia de muestreo, menor será la diferencia entre la señal original y su copia muestreada. La restauración será precisa solo si la frecuencia de muestreo es al menos 2 veces el ancho de banda de la señal analógica original (esta condición está determinada por el conocido teorema de Kotelnikov) Si no se cumple esta condición, entonces el muestreo se acompaña de distorsiones irreversibles .


La señal analógica (señal de video de la línea de TV) contiene una onda, cuya frecuencia primero aumenta de 0,5 MHz a 2,5 MHz y luego disminuye a 0,5 MHz. Esta señal se muestrea a una frecuencia de 3 MHz. Imágenes mostradas secuencialmente: señal analógica original, señal muestreada, recuperada después de muestrear la señal analógica Ejemplo de distorsiones derivadas de un muestreo incorrecto


El filtro de reconstrucción de paso bajo tiene un ancho de banda de 1,2 MHz. Como puede ver, los componentes de baja frecuencia (menos de 1 MHz) se restauran sin distorsión. La onda de 1,5 MHz desaparece y se convierte en un campo relativamente plano. La onda de 2,5 MHz después de la recuperación se convirtió en una onda de 0,5 MHz (esta es la diferencia entre la frecuencia de muestreo de 3 MHz y la frecuencia original de 2,5 MHz)


Estos diagramas de imágenes ilustran las distorsiones asociadas con una frecuencia de muestreo espacial insuficientemente alta de la imagen.Si un sujeto de televisión es un objeto que se mueve muy rápido o, por ejemplo, un objeto giratorio, entonces pueden ocurrir distorsiones de muestreo en el dominio del tiempo. Un ejemplo de distorsiones asociadas con una frecuencia de muestreo insuficientemente alta (y esta es la frecuencia de cuadro de la descomposición de la televisión) es una imagen de un automóvil que se mueve rápidamente con radios de la rueda estacionados o, por ejemplo, que giran lentamente en una dirección u otra ( efecto estroboscópico) Si se establece la frecuencia de muestreo, entonces la distorsión no muestra muestreo cuando el ancho de banda de la señal original está delimitado por encima y no excede la mitad de la frecuencia de muestreo


Cuantización Representa el reemplazo del valor de la muestra de la señal con el valor más cercano de un conjunto de valores fijos - niveles de cuantificación. En otras palabras, la cuantificación es un redondeo del valor de la muestra. Los niveles de cuantificación dividen todo el rango de posibles valores de la señal. cambiar a un número finito de intervalos - pasos de cuantificación La ubicación de los niveles de cuantificación está determinada por la escala de cuantificación. Se utilizan escalas uniformes y no uniformes.


La distorsión de la señal que se produce durante el proceso de cuantificación se denomina ruido de cuantificación. Al evaluar el ruido, se calcula la diferencia entre la señal original y su copia cuantificada. El ruido de cuantificación disminuye a medida que aumenta el número de niveles de cuantificación. Cuantificación en 4 niveles Cuantificación en 128 niveles


640 x x x120 80 x 60


Las operaciones relacionadas con la conversión de una señal analógica en forma digital se realizan mediante un dispositivo: un convertidor de analógico a digital (ADC). Procedimiento inverso, es decir, La reconstrucción de una señal analógica a partir de una secuencia de palabras de código se realiza en un convertidor de digital a analógico (DAC). Ahora existen posibilidades técnicas para la implementación de todo el procesamiento de señales de sonido e imagen, incluida la grabación y la transmisión, en forma digital. . Sin embargo, los dispositivos analógicos todavía se utilizan como sensores de señal (por ejemplo, un micrófono, un tubo de transmisión de TV o un dispositivo de carga acoplada) y dispositivos de reproducción de sonido e imagen (por ejemplo, un altavoz, un cinescopio). Por lo tanto, los convertidores de analógico a digital y de digital a analógico son una parte integral de los sistemas digitales.

Clase 1

Término "Ciencias de la Computación"(Francés. informatique) proviene de palabras francesas información(información y automatico(automático) y literalmente significa "automatización de la información"... La versión en inglés de este término también está muy extendida: "Ciencias de la computación" que literalmente significa "Ciencias de la Computación".

Ciencias de la Computación es una disciplina basada en el uso de la tecnología informática que estudia la estructura y propiedades generales de la información, así como los patrones y métodos de su creación, almacenamiento, búsqueda, transformación, transmisión y aplicación en diversas esferas de la actividad humana.

En 1978, el congreso científico internacional asignó oficialmente el concepto "Ciencias de la Computación"áreas relacionadas con el desarrollo, creación, uso y mantenimiento material y técnico de los sistemas de procesamiento de información, incluidas las computadoras y su software, así como los aspectos organizativos, comerciales, administrativos y sociopolíticos de la informatización - la introducción masiva de la tecnología informática en todas las áreas de la vida humana. El surgimiento de la informática se debe al surgimiento y difusión de una nueva tecnología de recolección, procesamiento y transmisión de información relacionada con la fijación de datos en soportes informáticos.

El tema de la informática como ciencia es:

- hardware de la computadora;

- software para equipos informáticos;

- medios de interacción entre hardware y software;

- medios de interacción humana con hardware y software.

Los medios de interacción en informática se suelen denominar interfaz... Por lo tanto, los medios de interacción entre hardware y software a veces también se denominan interfaz hardware-software, y los medios de interacción humana con hardware y software - interfaz de usuario.

Las tareas de la informática como ciencia son:

- estudiar la estructura, propiedades generales de la información, investigar las leyes y métodos de creación, transformación, acumulación, transmisión y uso de la información.

- sistematización de técnicas y métodos de trabajo con hardware y software de tecnología informática. El propósito de la sistematización es identificar, implementar y desarrollar tecnologías avanzadas y más efectivas para automatizar las etapas de trabajo con datos, así como proporcionar metódicamente nuevas investigaciones tecnológicas.

En el marco de la informática, como ciencia técnica, es posible formular los conceptos de información, sistema de información y tecnología de la información. Podemos decir que la solución de cada problema con la ayuda de una computadora incluye escribir información en la memoria, recuperar información de la memoria y manipular información.


Datos- este es el mismo concepto inicial que, digamos, en matemáticas "punto": un intento de definir los conceptos iniciales lleva a la necesidad de definir adicionalmente los términos utilizados. Entonces, asumiremos que datos Es cualquier conjunto de símbolos y los registros, imágenes, señales representadas por ellos como portadores de información, considerados sin tener en cuenta su significado significativo.

Data de muestra: 812, 930, 944. (para una persona esto no significa nada si no hay una explicación de lo que significan estos números). 01000001 01101100 01101100 01100001 (para humanos, esto no significa nada, pero en ASCII es la palabra Alla).

Durante el proceso de información, los datos se convierten de un tipo a otro mediante métodos. El procesamiento de datos implica muchas operaciones diferentes. Las principales operaciones son:

- recopilación de datos - acumulación de información con el fin de garantizar la integridad suficiente para tomar una decisión;

- formalización de datos: reunir datos de diferentes fuentes en un solo formulario;

- filtrado de datos - eliminación de datos innecesarios que no son necesarios para la toma de decisiones;

- clasificación de datos: poner los datos en orden de acuerdo con un atributo dado con el fin de facilitar su uso;

- archivo de datos: guardar datos de forma cómoda y accesible;

- protección de datos: un conjunto de medidas destinadas a prevenir la pérdida, reproducción y modificación de datos;

- transporte de datos - recepción y transmisión de datos entre usuarios remotos del proceso de información. La fuente de datos generalmente se llama servidor y el consumidor se llama cliente;

- conversión de datos: convertir datos de una forma a otra, o de una estructura a otra, o cambiar el tipo de medio.

1. La informática como disciplina científica. Concepto de información

1. La informática como disciplina científica

Ciencias de la Computación- disciplina que estudia las propiedades de la información, así como las formas de presentar, acumular, procesar y transmitir información por medios técnicos.

En Occidente, usan un término diferente: "ciencias de la computación" - ciencias de la computación.

La informática es un campo muy amplio que ha surgido en la intersección de varias disciplinas fundamentales y aplicadas. La base teórica de la informática está formada por el grupo de ciencias fundamentales, que se pueden atribuir igualmente a las matemáticas y la cibernética: teoría de la información, teoría de algoritmos, lógica matemática, análisis combinatorio, gramática formal, etc. La informática también tiene sus propias secciones: sistemas operativos, arquitectura de computadoras, programación teórica, teoría de bases de datos y otras. La base "material" de la informática está asociada con muchas ramas de la física, con la química y especialmente con la electrónica y la ingeniería de radio.

El núcleo de la informática - tecnologías de la información como un conjunto de hardware y software específico, con la ayuda del cual realizamos una variedad de operaciones de procesamiento de información en todos los ámbitos de nuestra vida y actividad. La tecnología de la información a veces se denomina tecnología informática o informática aplicada.

Es fundamental para la tecnología de la información un ordenador(de la palabra inglesa compute - calcular) - un dispositivo técnico para el procesamiento de información. El término computadora refleja solo la historia de la aparición de una computadora: en una computadora moderna, la computación está lejos de ser la única función y, a menudo, no es la principal. Con la ayuda de una computadora, se crean y procesan todo tipo de información: texto, gráfico, sonido, video.

2. El concepto de información

La palabra información proviene del latín informatio, que significa información, aclaración, familiarización.

El concepto de información es básico en el curso de la informática, es imposible definirlo a través de otros conceptos más simples. Solo se puede argumentar que este concepto asume la presencia de un portador material de información, una fuente de información, un transmisor de información, un receptor y un canal de comunicación entre la fuente y el receptor.

El concepto de información es un concepto científico general, se utiliza en todos los ámbitos sin excepción: filosofía, informática, cibernética, biología, medicina, psicología, física, etc., mientras que en cada ciencia el concepto de información está asociado a diferentes sistemas. de conceptos.

En informática, la información se considera como un conjunto de información útil sobre el mundo que nos rodea, que circula en la naturaleza y la sociedad.

Información Es un concepto científico general, un cuerpo de conocimiento sobre los datos reales y las dependencias entre ellos. En informática, la información son datos que se ingresan en una computadora y se envían a los usuarios.

2. Informatización. Informatización. El papel de las actividades de información en la sociedad moderna

El principal objeto de atención de la disciplina "Informática" es el proceso informatización y informatización sociedad moderna, que abarca todos los ámbitos de nuestra vida y se desarrolla a un ritmo sin precedentes en la historia.

La informatización no es tanto un proceso tecnológico como un proceso social asociado a cambios significativos en el estilo de vida de la población.

Informatización(Informatización en inglés) - políticas y procesos destinados a construir y desarrollar una infraestructura de telecomunicaciones que une recursos de información distribuidos geográficamente.

La informatización se basa en métodos cibernéticos y medios de control, así como en herramientas de tecnologías de la información y la comunicación.

La informatización se ha convertido en una de las características más importantes de nuestro tiempo. No existe una sola área de la actividad humana que, de una forma u otra, no esté asociada a los procesos de obtención y procesamiento de información para su uso práctico.

Informatización- equipo técnico es el proceso de introducción de tecnología informática electrónica en todas las esferas de la vida humana (por ejemplo, para controlar procesos tecnológicos, transporte, producción y transmisión de energía y otros procesos de producción).

El papel de las actividades de información en la sociedad moderna

Actividades de información- actividades que aseguren la recopilación, procesamiento, almacenamiento, búsqueda y difusión de información, así como la formación de un recurso de información y la organización del acceso a él.

La información siempre ha jugado un papel extremadamente importante en la vida humana. Quien tiene la mayor cantidad de información sobre cualquier tema siempre está en una mejor posición que los demás. Es un dicho muy conocido que el que posee la información también es dueño del mundo.

Durante mucho tiempo, la recopilación y sistematización de información sobre el mundo que nos rodea ayudó a una persona a sobrevivir en condiciones difíciles: de generación en generación, se transmitieron la experiencia y las habilidades en la fabricación de herramientas de caza y trabajo, la creación de ropa y medicinas. La información se actualizaba y complementaba constantemente; cada fenómeno estudiado permitía avanzar hacia algo nuevo, más complejo.

Con el tiempo, grandes cantidades de datos sobre el mundo que los rodea contribuyeron al desarrollo del progreso científico y tecnológico y, como resultado, toda la sociedad en su conjunto: una persona pudo aprender a administrar varios tipos de materia y energía.

Con el tiempo, el papel de la información en la vida humana se ha vuelto cada vez más esencial. Ahora, en la primera mitad del siglo XXI, el papel de la información en la vida de una persona es decisivo: cuantas más habilidades y conocimientos tiene, más se le valora como especialista y empleado, más respeto se le tiene en la sociedad.

En las últimas décadas, han estado hablando persistentemente de la transición de una "sociedad industrial" a una "sociedad de la información".

Hay un cambio en los métodos de producción, la cosmovisión de las personas, su forma de vida. Al mismo tiempo, se están produciendo cambios en la naturaleza del trabajo, que es un indicador del grado de libertad de los trabajadores, un indicador de su actitud hacia el trabajo. Esto se expresa, en primer lugar, en el "aprendizaje" del trabajo, en un aumento en la escala de aplicación del conocimiento científico en el proceso de producción, lo que conduce a un aumento del principio creativo en el proceso de trabajo. El trabajo se vuelve más creativo, la proporción de trabajo mental aumenta, la importancia de sus características individuales aumenta y, en consecuencia, la proporción de trabajo físico que agota la fuerza muscular de una persona disminuye. La nueva tecnología no requiere artistas estándar, ni robots, sino individuos, individuos creativos.

La información se ha convertido en uno de los recursos estratégicos y de gestión más importantes, junto con los recursos: humanos, financieros y materiales. El uso de tecnología de microprocesadores, computadoras electrónicas y computadoras personales condujo a una transformación radical de las relaciones y los fundamentos tecnológicos de la actividad en diversas esferas de la vida pública: la producción y el consumo, la actividad financiera y el comercio, la estructura social de la sociedad y la vida política, el servicio. sector y cultura espiritual.

3. Revoluciones de la información. Sociedad industrial

Revolución de la información

La sociedad humana, en el curso de su desarrollo, pasó por las etapas de dominar la materia, luego la energía y, finalmente, la información. Desde el comienzo mismo de la historia humana, surgió la necesidad de la transmisión y almacenamiento de información.

Para transmitir información, primero se utilizó el lenguaje de señas y luego el habla humana. Las pinturas rupestres se empezaron a utilizar para almacenar información, y en el IV milenio antes de Cristo apareció la escritura y los primeros portadores de información (tablillas de arcilla sumerias y papiros egipcios).

La historia de la creación de dispositivos para procesar información numérica también comienza desde la antigüedad, desde el ábaco (el tablero de conteo, que es el prototipo de las cuentas).

En la historia de la humanidad, varias veces se han producido cambios tan radicales en el campo de la información que pueden llamarse revoluciones de la información.

Con el desarrollo de la sociedad, el progreso científico y tecnológico, la humanidad creó cada vez más medios y métodos nuevos para recopilar, almacenar y transmitir información. Pero lo más importante en los procesos de información, el procesamiento y la transformación intencionada de la información, lo llevaban a cabo hasta hace poco exclusivamente humanos.

La primera revolución de la información asociado con la invención de la escritura, que dio lugar a un gran salto cualitativo en el desarrollo de la civilización. Se hizo posible acumular conocimientos y transferirlos a las generaciones posteriores. Desde el punto de vista de la informática, esto puede evaluarse como el surgimiento de medios y métodos de acumulación de información.

Segunda revolución de la información(mediados del siglo XV) está asociado con la invención de la imprenta, que cambió la sociedad humana, la cultura y la organización de la actividad. La distribución masiva de materiales impresos hizo accesibles los valores culturales, abrió la posibilidad de autoaprendizaje. Desde el punto de vista de la informática, la importancia de esta revolución es que presentó una forma cualitativamente nueva de almacenar información.

Tercera revolución de la información(finales del siglo XIX) se asocia con la invención de la electricidad, gracias a la cual aparecieron el telégrafo, el teléfono, la radio, que permitieron transmitir información rápidamente a cualquier distancia. Esta etapa es importante para la informática porque han aparecido herramientas de comunicación de información.

La cuarta revolución de la información(Años 70 del siglo XX) está asociado con la invención de la tecnología de microprocesadores y la aparición de las computadoras personales. Poco después, surgieron las telecomunicaciones por computadora, que cambiaron radicalmente el almacenamiento y la recuperación de información.

Desde mediados del siglo XX, desde el advenimiento de los dispositivos electrónicos para procesar y almacenar información (computadoras, y luego una computadora personal), una transición gradual de industrial sociedad a sociedad de información.

Sociedad industrial

A partir de aproximadamente el siglo XVII, en el proceso de formación de la producción de máquinas, el problema de dominar energía(había que poner en marcha máquinas y máquinas-herramienta).

Al principio, se mejoraron los métodos para dominar la energía del viento y el agua, y luego la humanidad tomó posesión de la energía térmica (a mediados del siglo XVIII, se inventó una máquina de vapor y, a fines del siglo XIX, una interna motor de combustión).

La transición a una sociedad industrial está asociada con la segunda revolución de la información: la invención de la electricidad y la radio.

A finales del siglo XIX, el dominio de energía eléctrica, se inventaron un generador eléctrico y un motor eléctrico. Y finalmente, a mediados del siglo XX, la humanidad tomó posesión de energía Atómica.

El dominio de la energía permitió la transición a la producción de máquinas en masa de bienes de consumo, Sociedad industrial.

Sociedad industrial Es una sociedad determinada por el nivel de desarrollo de la industria y su base técnica.

En una sociedad industrial, el proceso de innovaciones en la producción juega un papel importante: la introducción en la producción de los últimos logros del pensamiento científico y técnico: invenciones, ideas, propuestas. Este proceso se llama innovador.

El criterio para evaluar el nivel de desarrollo de una sociedad industrial no es solo el nivel de desarrollo de la producción industrial. También se tiene en cuenta el volumen de bienes de consumo producidos: automóviles, refrigeradores, lavadoras, televisores, etc.

4. Sociedad de la información. Cultura de la información

Desde mediados del siglo XX, desde el advenimiento de los dispositivos electrónicos para procesar y almacenar información (computadoras y luego una computadora personal), una transición gradual de la sociedad industrial a información.

La última revolución de la información pone en primer plano una nueva industria: la industria de la información asociada con la producción de medios técnicos, métodos y tecnologías para la producción de nuevos conocimientos. Todos los tipos de tecnologías de la información, especialmente las telecomunicaciones, se están convirtiendo en los componentes más importantes de la industria de la información. La tecnología de la información moderna se basa en los avances de la tecnología informática y las comunicaciones.

La cuarta revolución de la información condujo a cambios tan significativos en el desarrollo de la sociedad que apareció un nuevo término para caracterizarla: “ Sociedad de información».

Sociedad de información- concepto teórico de sociedad postindustrial; la fase histórica del posible desarrollo de la civilización, en la que la información y el conocimiento se convierten en los principales productos de producción.

La sociedad de la información es una etapa moderna en el desarrollo de la civilización con el papel dominante del conocimiento y la información, el impacto de las tecnologías de la información y la comunicación en todas las esferas de la actividad humana y la sociedad en su conjunto.

Rasgos distintivos de la sociedad de la información:


  • aumentar el papel de la información, el conocimiento y la tecnología de la información en la vida de la sociedad;

  • un aumento del número de personas empleadas en tecnología de la información, comunicaciones y producción de productos y servicios de información;

  • la creciente informatización de la sociedad mediante la telefonía, la radio, la televisión, Internet, así como los medios tradicionales y electrónicos;

  • creación de un espacio de información global, proporcionando: interacción de información efectiva de las personas, su acceso a los recursos mundiales de información y satisfaciendo sus necesidades de productos y servicios de información.
Como criterios para el desarrollo de la sociedad de la información puede enumerar lo siguiente:

  • disponibilidad de computadoras,

  • nivel de desarrollo de las redes informáticas

  • la proporción de la población ocupada en el ámbito de la información, así como el uso de tecnologías de la información en sus actividades diarias.
En la sociedad de la información, las actividades tanto de los individuos como de los grupos dependerán cada vez más de su conocimiento y de su capacidad para utilizar eficazmente la información disponible. Antes de emprender cualquier acción, es necesario trabajar mucho en la recopilación y procesamiento de la información, su comprensión y análisis y la búsqueda de la solución más racional.

En la sociedad de la información circula en abundancia información de alta calidad, y también existen todos los medios necesarios para su almacenamiento, distribución y uso. La información se difunde fácil y rápidamente de acuerdo con los requisitos de las personas y organizaciones interesadas.

La informatización ha cambiado la naturaleza del trabajo en las industrias tradicionales: han aparecido sistemas robóticos, se están introduciendo elementos de tecnología de microprocesadores en todas partes. Por ejemplo, la industria de la máquina herramienta en los Estados Unidos empleaba a 330 mil personas en 1990, y para 2005 había 14 mil personas debido a la introducción de robots y manipuladores.

En la sociedad de la información, no solo cambiará la producción, sino también toda la forma de vida, el sistema de valores. En comparación con una sociedad industrial, donde todo está orientado a la producción y el consumo de bienes, en una sociedad de la información, los medios y productos de producción se convertirán en inteligencia y conocimiento, lo que, a su vez, conducirá a un aumento en la proporción de trabajo mental. Una persona necesitará la capacidad de ser creativo, la demanda de conocimiento aumentará..

Según varios expertos, Estados Unidos completará la transición general a la sociedad de la información para 2020. Japón y la mayoría de los países de Europa occidental para 2030-2040. En Rusia, hay una serie de requisitos previos objetivos para su transición al estado de la sociedad de la información: el rápido desarrollo de la base material de la esfera de la información, la informatización de muchas ramas de producción y gestión, la entrada activa en la comunidad mundial, etc. Es importante que el movimiento de Rusia hacia la sociedad de la información sea implementado por el estado como un objetivo estratégico prioritario.

A principios del siglo XXI, la imagen de la sociedad de la información creada por los teóricos va adquiriendo paulatinamente contornos visibles. Se prevé la transformación de todo el espacio mundial en una única sociedad informatizada y de la información de personas que viven en casas equipadas con todo tipo de dispositivos electrónicos y dispositivos "inteligentes". Las actividades humanas se centrarán principalmente en el procesamiento de información, mientras que la producción de materiales y la producción de energía se confiarán a las máquinas.

Durante la transición a una sociedad de la información, una persona debe prepararse para la percepción y el procesamiento rápidos de grandes cantidades de información, aprender a trabajar con medios, métodos y tecnologías modernos.

La sociedad de la información se basa en la inteligencia como instrumento de cognición, en la información como resultado de la cognición, en el interés y la actividad en la percepción de la información, en el deseo de aplicar el intelecto y la información para fines específicos.

En las nuevas condiciones de trabajo, no es suficiente poder dominar y acumular información de forma independiente, es necesario aprender dicha tecnología para trabajar con información, cuando las decisiones se toman sobre la base del conocimiento colectivo. Esto sugiere que una persona debe tener un cierto nivel de cultura de manejo de información - cultura de la información.

Cultura de la información Es la capacidad de trabajar intencionalmente con información y utilizar tecnología informática, medios y métodos técnicos modernos para recibirla, procesarla y transmitirla.

La cultura de la información está asociada con la naturaleza social de una persona, es producto de una variedad de habilidades creativas humanas y se manifiesta en los siguientes aspectos:


  • en habilidades específicas en el uso de dispositivos técnicos, desde un teléfono hasta una computadora personal y redes de computadoras;

  • en la capacidad de utilizar en sus actividades la tecnología de la información informática, cuyo componente básico son numerosos productos de software;

  • en la capacidad de extraer información de diversas fuentes, tanto de publicaciones periódicas como de sistemas de comunicación electrónica, para presentarla de forma comprensible y poder utilizarla eficazmente;

  • en posesión de los fundamentos del procesamiento analítico de información;

  • en la capacidad de trabajar con información diversa;

  • en el conocimiento de las características de los flujos de información en su actividad profesional.
Uno de los indicadores esenciales de la cultura de la información en nuestro país es el conocimiento. de lengua inglesa... La situación actual de la industria informática es tal que casi todas las versiones modernas de productos de software que definen la tecnología de la información se presentan en inglés. En este lenguaje, se realiza la interfaz de usuario con los principales tipos de recursos de información global, se lleva a cabo la interacción profesional con los sistemas operativos de las computadoras. La mayoría de las áreas de la ciencia, los negocios y la tecnología también están dominadas por el inglés.

La cultura de la información abarca mucho más que un conjunto de habilidades para el procesamiento técnico de información utilizando computadoras y telecomunicaciones.

La cultura de la información debe convertirse en parte de la cultura humana universal.

5. Recursos de información de la sociedad

Los tipos tradicionales de recursos públicos son materiales, materias primas (naturales), energía, mano de obra, recursos financieros. Uno de los tipos de recursos más importantes de la sociedad moderna son recursos informativos.

Con el tiempo, aumenta la importancia de los recursos de información. Los recursos de información se vuelvenmercancía , cuyo costo en el mercado es comparable al costo de los recursos tradicionales.

En la Ley Federal "Sobre la Información, Informatización y Protección de la Información" el concepto de recursos de información se define de la siguiente manera:

Recursos informativos- estos son documentos individuales o matrices de documentos, así como documentos y matrices de documentos en sistemas de información: bibliotecas, archivos, fondos, bancos de datos, etc.

Los recursos de información también incluyen todo el conocimiento científico y técnico, obras de arte y literatura, y muchas otras informaciones de importancia pública y estatal, registradas en cualquier forma y en cualquier medio.

Los recursos de información de la sociedad son considerados actualmente como recursos estratégicos, de similar importancia a los recursos materiales, materias primas, energía, mano de obra y financieros. Sin embargo, existe una diferencia importante entre los recursos de información y cualquier otro:

Cualquier recurso, excepto la información, desaparece después de su uso.

Se quema combustible, se gastan las finanzas, etc., pero el recurso de información sigue siendo "indestructible", se puede usar muchas veces, se copia sin restricciones.

En los documentos y matrices de documentos a que se refiere la Ley Federal "Sobre Información, Informatización y Protección de la Información", se presentan de diversas formas los conocimientos que poseían las personas que los crearon. Por lo tanto, Los recursos de información son conocimientos preparados por personas para uso social en la sociedad y registrados en un medio material.... Los recursos de información de la sociedad, si se entienden como conocimiento, están alienados de aquellas personas que los crearon, acumulan, generalizan y analizan. Este conocimiento se ha materializado en forma de documentos, bases de datos, bases de conocimiento, algoritmos, programas informáticos, así como obras de arte, literatura y ciencia.

Los recursos de información se reconocen como uno de los tipos de recursos más importantes de cualquier país. En los países más desarrollados, son objeto de especial atención.

Por ejemplo, en los Estados Unidos existe un programa especial "Infraestructura Nacional de Información". Debe brindar apoyo gubernamental a los productores de recursos de información, así como el acceso a los mismos para cualquier usuario. Las principales prioridades de este programa son:


  • recursos de información estatal creados sobre la base de información gubernamental;

  • recursos de información de la biblioteca;

  • recursos de información en el campo de la educación, la salud y la ecología.
La Unión Europea ha adoptado un programa similar "Estructura de información europea".

Los recursos de información de un país, región u organización deben considerarse recursos estratégicos, de importancia similar a las existencias de recursos materiales: materias primas, energía, minerales.

El desarrollo de los recursos mundiales de información ha permitido:


  • transformar la actividad de prestación de servicios de información en una actividad humana global;

  • formar un mercado nacional e internacional de servicios de información;

  • crear todo tipo de bases de datos de recursos de regiones y estados, a los que es posible un acceso relativamente económico;

  • Incrementar la vigencia y eficiencia de las decisiones tomadas en empresas, bancos, bolsas de valores, industria, comercio mediante el uso oportuno de la información necesaria.
Así, el principal objetivo de la política de Estado de cualquier país debe ser crear condiciones favorables para la creación de recursos de información.

Clasificación de recursos de información. Cualquier clasificación de los recursos de información de la sociedad resulta incompleta. Se puede hacer una división adicional y más detallada dentro de cada clase.


  • Recursos de la biblioteca. En las bibliotecas se esconden enormes recursos de información. Las formas tradicionales (en papel) de su presentación dominan, pero cada vez más recursos bibliotecarios en los últimos años se están transfiriendo a una base digital (sin papel).

  • Recursos de archivo. Los archivos esconden materiales (a veces centenarios) relacionados con la historia y la cultura del país. Los volúmenes de material de archivo son enormes.

  • Información científica y técnica. Todos los países desarrollados tienen sistemas especializados de información científica y técnica. Estos incluyen numerosas ediciones especiales, servicios de patentes, etc. Este tipo de información suele ser un bien caro.

  • Información legal e información de culturas estatales (de poder). Códigos de leyes, códigos, regulaciones, otros tipos de información legal, sin los cuales ningún estado puede existir.

  • Información de la industria. Cualquier sector social industrial agrario y otras esferas de la sociedad tienen sus propios recursos de información de rama. Los recursos de información del sector de la defensa, el sistema educativo, etc. son enormes.

  • Información económica y financiera

  • Información sobre recursos naturales etc.

6. Servicios y productos de información. Etapas de desarrollo de medios técnicos y recursos de información

Actualmente, en muchos países formados mercado nacional de recursos de información... Este mercado es similar al mercado de recursos tradicional. Los productos del mercado de recursos de información pueden ser:


  • información del hogar sobre el acceso a bienes materiales y servicios, su costo;

  • información de carácter científico y técnico (artículos científicos, resúmenes, enciclopedias, etc.);

  • programas de computador;

  • bases de datos, sistemas de información, etc.
Como en cualquier mercado, hay proveedores (vendedores) y consumidores (compradores) en el mercado de recursos de información. Proveedores- estos son productores de información o sus propietarios (centros en los que se crean y almacenan bases de datos, servicios de comunicaciones y telecomunicaciones, empresas comerciales especializadas dedicadas a la compra y venta de información, etc.).

Consumidores de información- todos somos personas, así como empresas que hoy no podrían funcionar sin información, etc.

Los recursos de información son la base para crear productos de información... Un producto de información, al ser el resultado de la actividad intelectual humana, debe registrarse en un soporte material en forma de documentos, artículos, reseñas, programas, libros, etc.

La informática es una ciencia que estudia las propiedades de la información, así como las formas de presentar, acumular, procesar y transmitir información por medios técnicos. En informática, hay tres áreas principales: 1. Informática teórica: estudia la teoría de la información, la teoría de los algoritmos; 2. Informática práctica: programación de estudios y uso de programas aplicados; 3. Informática técnica - estudia el diseño, desarrollo y uso de medios técnicos.


Información (de Lat. Information): información, conocimiento y mensajes recibidos por una persona de diversas fuentes. El concepto de información es uno de los fundamentales de la ciencia moderna. Junto con conceptos como materia, energía, espacio y tiempo, forma la base de la imagen científica del mundo. También es imposible determinar de forma inequívoca qué es la información, así como es imposible hacerlo para los conceptos de "tiempo", "energía" ... La información en la vida cotidiana se entiende como información de interés para nosotros sobre el mundo que nos rodea. y los procesos que tienen lugar en él, percibidos e interpretados por una persona o un especial y dispositivos. La información en la vida cotidiana se entiende como información de interés para nosotros sobre el mundo que nos rodea y los procesos que ocurren en él, percibidos e interpretados por una persona o dispositivos especiales. En tecnología, la información se entiende como mensajes en forma de signos o señales, almacenados, transmitidos y procesados ​​por medios técnicos. En tecnología, la información se entiende como mensajes en forma de signos o señales, almacenados, transmitidos y procesados ​​por medios técnicos. La información en la teoría de la información no significa información alguna, sino solo aquellas que eliminan o reducen por completo la incertidumbre que existe antes de ser recibida. La información en la teoría de la información no significa información alguna, sino solo aquellas que eliminan o reducen por completo la incertidumbre que existe antes de ser recibida. La información en la teoría semántica (el significado de un mensaje) se entiende como información con novedad. La información en la teoría semántica (el significado de un mensaje) se entiende como información con novedad. En informática, la información se considera como un producto de la interacción de los datos y los métodos de su procesamiento, adecuados al problema que se está resolviendo. En informática, la información se considera como un producto de la interacción de los datos y los métodos de su procesamiento, adecuados al problema que se está resolviendo.


La información siempre está asociada a un medio material. El soporte de información es un medio para grabar, almacenar y transmitir información. El portador de información puede ser: 1. Cualquier objeto material; 2. Olas de diferente naturaleza; 3. Sustancia en varios estados. El método de transferencia de información es una señal (del signo inglés - signo, símbolo). Una señal es un proceso físico que tiene valor informativo. La señal puede ser analógica (continua) o discreta (tomando un número finito de valores en un número finito de puntos en el tiempo). Cualquier señal es transportada por materia (texto, arte rupestre, genes, etc.) o por energía (sonido, luz, ondas de radio, etc.) Esto significa que la información siempre está asociada a un medio material.


Por la vía de la percepción: Por la vía de la percepción: o visual, o auditiva, o táctil, o olfativa, o gustativa. Por la forma de presentación: Por la forma de presentación: o texto, o numérico, o gráfico, o sonido. Por grado de significación: Por grado de significación: o Personal (conocimientos, habilidades, planes, sentimientos, intuición, experiencia, memoria hereditaria) o Especial (científico, industrial, técnico, gerencial) o Público (sociopolítico, divulgativo, cotidiano , estético)


1. Objetividad: subjetividad (la información es objetiva, si no depende de la opinión o juicio de otra persona) 2. Fiabilidad: falta de fiabilidad o falsedad (la información es fiable si refleja el verdadero estado de las cosas) 3. Completitud: incompleta o insuficiente, así como redundancia (la información es completa si es suficiente para comprender y tomar una decisión) 4. Relevancia - desactualizada u obsoleta, así como prematura (la información es relevante, si es importante, significativa para el presente) 5. Utilidad o Valor - Inútil (la utilidad de la información es evaluada por aquellas tareas que podemos resolver con su ayuda) 6.Comprensibilidad - Incomprensibilidad (la información es comprensible si está expresada en un lenguaje accesible al receptor)


El proceso de información es un conjunto de acciones (operaciones) secuenciales que se realizan sobre la información para obtener cualquier resultado (logro de metas). La información se manifiesta precisamente en los procesos de información. Los procesos de información siempre tienen lugar en cualquier sistema (social, socio-técnico, biológico, etc.) Los procesos de información más comunes son: recolección, transformación, uso de la información. Los principales procesos de información estudiados en el curso de informática incluyen: búsqueda, selección, almacenamiento, transmisión, codificación, procesamiento, protección de la información. Una computadora es un dispositivo universal para la ejecución automatizada de procesos de información.


El almacenamiento de información es necesario para su difusión en el tiempo. El almacenamiento de información es información organizada de cierta manera en medios externos, destinada al almacenamiento a largo plazo y al uso permanente. El almacenamiento de información depende de su portador (un libro es una biblioteca, una imagen es un museo, una fotografía es un álbum). Los principales depósitos de información: Para los seres humanos: memoria, incluida la memoria genética. Para una persona: memoria, incluida la memoria genética. Para la sociedad: bibliotecas, videotecas, bibliotecas de música, archivos, museos, etc. Para la sociedad: bibliotecas, videotecas, bibliotecas de música, archivos, museos, etc. Almacenamiento de computadoras: bases de datos y bancos de datos, sistemas de recuperación de información, enciclopedias electrónicas, bibliotecas multimedia, etc. Almacenamiento de computadoras: bases de datos y bancos de datos, sistemas de recuperación de información, enciclopedias electrónicas, bibliotecas de medios, etc. La información destinada al almacenamiento y la transmisión suele presentarse en forma de documento. Se entiende por documento la información sobre cualquier soporte material destinado a ser distribuido en el espacio y el tiempo.


El desarrollo humano no habría sido posible sin el intercambio de información. Durante mucho tiempo, las personas de generación en generación transmitieron sus conocimientos, informaron sobre peligros o transmitieron información importante y urgente, intercambiaron información. Por ejemplo, a principios del siglo XIX, el servicio de bomberos estaba muy desarrollado. En varios puntos de las ciudades se construyeron altas torres, desde las cuales se observó el entorno. Si había un incendio, se izaba una bandera multicolor (con una u otra figura geométrica) en la torre durante el día, y se encendían varias linternas por la noche, cuyo número y ubicación indicaba el tamaño y la ubicación del incendio. . Por lo tanto, se utilizaron torres de vigilancia para la señalización: notificaron a los departamentos de bomberos vecinos. Torre de observación de la atalaya en la estación de bomberos (policía). Significado obsoleto de la torre atalaya (defensiva).


En cualquier proceso de transmisión o intercambio de información, existe su fuente y destinatario, y la información en sí se transmite a través del canal de comunicación mediante señales: mecánicas, térmicas, eléctricas, etc. En la vida cotidiana de una persona cualquier sonido, la luz son señales. llevando una carga semántica. Por ejemplo, una sirena es una alarma audible; timbre del teléfono: una señal para descolgar el teléfono; semáforo en rojo: una señal que prohíbe cruzar la calle. Un ser vivo o un dispositivo técnico puede actuar como fuente de información. Desde la fuente, la información va al codificador, que está diseñado para transformar el mensaje original en una forma conveniente para la transmisión. Te encuentras con tales dispositivos todo el tiempo: un micrófono de teléfono, una hoja de papel, etc. A través del canal de comunicación, la información ingresa al dispositivo de decodificación del destinatario, que convierte el mensaje en una forma comprensible para el destinatario. Algunos de los dispositivos de decodificación más sofisticados son el oído y el ojo humanos. En el proceso de transmisión, la información se puede perder, distorsionar. Esto se debe a diversas interferencias, tanto en el canal de comunicación como durante la codificación y decodificación de información (sonido distorsionado en el teléfono, interferencia con la transmisión de televisión, etc.). Las cuestiones relacionadas con los métodos de codificación y decodificación de información son tratadas por una ciencia especial: la criptografía.


Al adquirir experiencia de vida, observar el mundo que lo rodea, en otras palabras, al acumular más y más información, una persona aprende a sacar conclusiones. En la antigüedad, la gente decía que una persona conoce con la ayuda de los sentidos y comprende lo que conoce la mente. Una vez que tocamos una tetera o plancha caliente, lo recordamos por el resto de nuestras vidas, y cada vez que tocamos accidentalmente la superficie caliente, retiramos nuestra mano. Si analizamos por qué sucede esto, entonces podemos sacar una conclusión sobre la transformación (procesamiento) de la información: al tocar una superficie caliente, recibimos información con la ayuda de los órganos del tacto, el sistema nervioso la transmitió1 al cerebro, donde, a partir de la experiencia, se llegó a una conclusión sobre el peligro, se envió la señal del cerebro a los músculos de los brazos, que se contrajeron instantáneamente. Procesos de procesamiento de información similares ocurren en el momento en que, en los primeros acordes de una melodía familiar, el estado de ánimo mejora inmediatamente o, por el contrario, se entristece. Todos estos son ejemplos de procesamiento de información inconsciente.


En el caso del procesamiento deliberado de información, una persona crea nueva información, basándose en la información entrante, la llamada información de entrada, y en el acervo de conocimientos y experiencia que tiene. La nueva información obtenida como resultado del procesamiento de la información de entrada se denomina salida. Información de entrada Procesador Información de entrada


El procesamiento de información es la transformación de información de un tipo a otro. Por lo general, el procesamiento de la información es un proceso con un propósito y para una ejecución exitosa, el ejecutor debe conocer el método de procesamiento, es decir, secuencia de acciones, regla. Procesamiento de información según el principio de "caja negra" Una caja negra en ciencias de la computación es una estructura (objeto, sistema) que tiene una entrada y una salida. Algunas entradas (también llamadas parámetros) se envían a la entrada de la caja y la salida se recibe de la salida. La caja se llama negra porque desconocemos su estructura interna. No sabemos cómo procesa exactamente la información que le llega en la entrada. Sin embargo, puede estudiar este objeto por los cambios entre las entradas y salidas del sistema.


Diferentes personas que han recibido un mismo mensaje tienen diferentes valoraciones de su capacidad de información, es decir, la cantidad de información que contiene. Esto se debe a que el conocimiento de las personas sobre los eventos, los fenómenos a los que se hace referencia en el mensaje, antes de que se recibiera el mensaje, eran diferentes. Por tanto, quienes sabían poco de esto considerarán que recibieron mucha información, mientras que quienes sabían más pueden decir que no recibieron ninguna información. La cantidad de información en un mensaje, por lo tanto, depende de qué tan nuevo sea el mensaje para el destinatario. En este caso, la cantidad de información en el mismo mensaje debe determinarse por separado para cada destinatario, es decir, tienen un carácter subjetivo. Pero las cosas subjetivas no se prestan a la comparación y el análisis, para su medida es imposible elegir una unidad de medida común. En este caso, la cantidad de información en el mismo mensaje debe determinarse por separado para cada destinatario, es decir, tienen un carácter subjetivo. Pero las cosas subjetivas no se prestan a la comparación y el análisis, para su medida es imposible elegir una unidad de medida común. Ese. Desde el punto de vista de la información como novedad, no podemos evaluar de manera inequívoca y objetiva la cantidad de información contenida incluso en el mensaje más simple, pero ¿qué pasa con la cantidad de información contenida en un descubrimiento científico, un nuevo estilo musical, una nueva teoría de la sociedad? desarrollo ... Por tanto, cuando se considera la información como la novedad del mensaje para el destinatario, no se plantea la cuestión de medir la cantidad de información.


Medición de la información en la teoría de la información (información como incertidumbre eliminada) Obtener información al mismo tiempo significa un aumento del conocimiento, lo que, a su vez, significa una disminución de la ignorancia o la incertidumbre de la información. La elección de uno de dos mensajes igualmente probables ("sí" o "no", "1" o "0") se toma como una unidad de la cantidad de información. También se llama bit. La cuestión del valor de esta información para el destinatario es de un área diferente. Ralph Hartley propuso un enfoque científico para evaluar mensajes ya en 1928. La fórmula de cálculo tiene la forma: o o Donde N es el número de eventos equiprobables (incertidumbre del conocimiento) i es la cantidad de información


Como unidad de información, acordamos aceptar un bit (bit binario en inglés, el dígito es un dígito binario). Un poco en la teoría de la información es la cantidad de información requerida para distinguir entre dos mensajes igualmente probables. Por ejemplo: 1. al lanzar una moneda: "cayeron cruces", "cayeron caras"; 2. en la página del libro: "el número de letras es par", "el número de letras es impar".


Digamos que necesitamos encontrar o definir algo en un sistema en particular. Existe un método de búsqueda como "reducir a la mitad". Por ejemplo, alguien piensa en un número del 1 al 100, mientras que otro tiene que adivinarlo, obteniendo solo respuestas “sí” o “no”. Se hace la pregunta: ¿es menor el número? Responder sí y no reducirá el área de búsqueda a la mitad. Además, de acuerdo con el mismo esquema, el rango se divide nuevamente por la mitad. Al final, se encontrará el número oculto. Vamos a contar cuántas preguntas necesitas hacer para encontrar el número planeado. Digamos el número oculto 27. Empezó: ¿Más de 50? ¿No más de 25? Si ¿Más de 38? ¿No menos de 32? Si ¿Menos de 29? Si ¿Más de 27? No ¿Es este el número 26? No Si el número no es 26 y no más de 27, entonces claramente es 27. Para adivinar el número del 1 al 100 mediante el método de “dividir a la mitad”, necesitamos 7 preguntas. Alguien puede hacer la pregunta: ¿por qué es necesario hacer preguntas de esta manera? Después de todo, por ejemplo, puede simplemente preguntar: ¿es este el número 1? ¿Es este el número 2? Etc. Pero luego necesitará muchas más preguntas (no se considera la posibilidad de que sea telepático y adivine bien la primera vez). “Reducir a la mitad” es la forma racional más corta de encontrar un número. La cantidad de información incluida en la respuesta "sí" o "no" es igual a un bit. De hecho, después de todo, un bit puede estar en un estado de 1 o 0. Entonces, para adivinar el número del 1 al 100, necesitábamos siete bits (siete respuestas "sí" - "no").


Desde el punto de vista de considerar la información como una incertidumbre eliminada, la cantidad de información depende de la probabilidad de recibir un mensaje en particular. Además, cuanto mayor es la probabilidad de que se produzca un evento, menos información contiene el mensaje sobre dicho evento. En otras palabras, la cantidad de información depende de la probabilidad de que ocurra este evento. En 1948, Claude Shannon propuso un enfoque científico para el caso más general de calcular la cantidad de información en un mensaje sobre uno de los eventos N, pero que ya no son equiprobables. Fórmula de Shannon: I = (p 1 log 2 p 1 + p 2 log 2 p p N log 2 p N) donde p i es la probabilidad de que el i-ésimo mensaje se seleccione en el conjunto de N mensajes.


Para almacenar datos de texto en una computadora, primero debe codificar todos los caracteres que se pueden usar en el texto. El texto puede contener números, letras mayúsculas y minúsculas, espacios, signos de puntuación y caracteres especiales (por ejemplo, # &%), por lo que es necesario que la cardinalidad del alfabeto, incluidos todos los caracteres codificados, sea lo suficientemente grande. Si las letras incluidas en el texto solo pueden ser latinas o rusas, entonces para codificar un carácter es suficiente usar celdas de memoria de 8 bits, es decir, 1 byte de memoria (ya que 8 ubicaciones de memoria pueden codificar 2 8 = 256 caracteres diferentes). En este caso, es necesario acordar en qué combinación de celdas activas e inactivas se codificará cada carácter. Por ejemplo, el carácter de espacio se codifica con una combinación y la letra A mayúscula se codifica con una combinación


Actualmente, existen varias codificaciones de caracteres de un solo byte (8 bits) que incluyen letras rusas: Windows-1251, ASCII, KOI-8. Con la expansión de Internet, se hizo necesario utilizar un conjunto de caracteres que contuviera las letras de todos los idiomas existentes. Por lo tanto, se decidió utilizar 2 bytes, o celdas de memoria de 16 bits, para codificar cada carácter. Esto le permite codificar 2 16 = 65536 caracteres diferentes. Esta codificación de dos bytes (16 bits) se llama Unicode.


En cualquier codificación de un solo byte, cada carácter tiene un tamaño de 1 byte (dicen que el tamaño de información de un carácter es de 1 byte). Si el texto consta de K caracteres (incluidos espacios, signos de puntuación, etc.), entonces el volumen de información de dicho texto es de K bytes (u 8 K bits) independientemente del significado del texto. 2 i = N I = Ki i - peso informativo de un carácter (cuántos bits lleva un carácter) N - potencia del alfabeto (número de caracteres en el alfabeto) I - Volumen informativo de un mensaje K - número de caracteres en un mensaje

Pregunta número 1 La informática como ciencia. Composición de la informática.

Término "Ciencias de la Computación" viene de palabras francesas información(información y automatico(automático) y literalmente significa "automatización de la información".

Informática es una disciplina basada en el uso de la tecnología informática que estudia la estructura y propiedades generales de la información, así como los patrones y métodos de su creación, almacenamiento, búsqueda, transformación, transmisión y aplicación en diversas esferas de la actividad humana. .

direcciones principales:

desarrollo de sistemas informáticos y software;

Teoría de la información estudiar los procesos asociados a la transmisión, recepción, transformación y almacenamiento de información;

técnicas de inteligencia artificial que le permiten crear programas para la resolución de problemas que requieren ciertos esfuerzos intelectuales cuando son realizados por una persona (inferencia lógica, aprendizaje, comprensión del habla, percepción visual, juegos, etc.);

análisis del sistema, que consiste en analizar la finalidad del sistema que se está diseñando y en establecer los requisitos que debe cumplir;

métodos de gráficos por computadora, animaciones, herramientas multimedia;

instalaciones de telecomunicaciones incluidas las redes informáticas mundiales que unen a toda la humanidad en una sola comunidad de información;

varias aplicaciones en producción, ciencia, educación, medicina, comercio, agricultura y todos los demás tipos de actividades económicas y sociales.

Las ciencias de la computación generalmente se presentan como que constan de dos partes:

    medios tecnicos;

    software.

Medios tecnicos, es decir hardware de la computadora, en inglés se denotan con la palabra Hardware.

Para herramientas de software el término se usa Software, que determina la equivalencia del software y la propia máquina.

Además de estas dos ramas de la informática generalmente aceptadas, se distingue una rama más importante: herramientas algorítmicas (Brainware). Esta rama está asociada al desarrollo de algoritmos y al estudio de métodos y técnicas para su construcción.

No puede comenzar a programar sin antes desarrollar un algoritmo para resolver el problema.

Pregunta número 2 Información y sus datos Propiedades básicas.

Información- información sobre objetos y fenómenos del medio, sus parámetros, propiedades y condición, que son percibidos por los sistemas de información (organismos vivos, máquinas de control, etc.) en el proceso de la vida y el trabajo.

La información es el contenido útil de los datos.... Los datos son una forma de presentación de información. Una descripción más completa de esta conexión se da presentando tres aspectos principales (lados) de la información: su contenido pragmático, semántico y sintáctico.

El aspecto pragmático refleja la correspondencia de la información con el logro de la meta, es decir, determina la utilidad de la información contenida en los datos. Por tanto, se evalúan las propiedades de la información para el consumidor.

Aspecto semántico caracteriza el contenido semántico de la información y determina el grado de correspondencia entre el objeto de información y su imagen contenida en la información (datos).

Aspecto sintáctico La información está asociada con la forma de su presentación y no afecta su contenido semántico.

Por tanto, los datos solo representan el aspecto sintáctico de la información.

Propiedades de la información

propiedad principal (el llamado indicador de calidad) de la información - su valor está determinada por la importancia de las tareas que el sujeto de información (persona) puede resolver con su ayuda. El valor de la información depende de cuán importante sea para resolver un problema en particular, así como de cuánto se utilizará en el futuro.

Utilidad La información está determinada por el grado de utilidad de su uso para resolver los problemas que enfrenta el sujeto de la información. La utilidad de la información depende de sus propiedades tales como integridad, relevancia y confiabilidad.

Credibilidad La información está determinada por el grado de reflexión en la información de las propiedades del objeto de información. La información es confiable si refleja el verdadero estado de las cosas. La información inexacta puede dar lugar a malentendidos o decisiones incorrectas. Con el tiempo, la información confiable puede volverse poco confiable, ya que tiene la propiedad de quedar desactualizada, es decir, deja de reflejar el verdadero estado de cosas.

Lo completo La información está determinada por el grado en que las propiedades del objeto de información se reflejan en la información, que son necesarias para resolver el problema que se le plantea al sujeto.

La información es completa si es suficiente para comprender y tomar decisiones. Tanto la información incompleta como la redundante dificulta la toma de decisiones o puede dar lugar a errores.

La precisión de la información está determinada por el grado de su proximidad al estado real de un objeto, proceso, fenómeno, etc.

Relevancia La información está determinada por su capacidad para cumplir con las tareas que se están resolviendo en el momento. Solo la información oportuna puede traer los beneficios esperados. Tanto la información recibida prematuramente (cuando no puede ser absorbida) como su retraso son indeseables.

Comprensibilidad la información está determinada por la capacidad de comprender el contenido de los datos obtenidos y de formarse una idea del objeto de información. Este es el aspecto semántico de la información. La información se vuelve comprensible si se expresa en el idioma hablado por aquellos a quienes se destina la información. Si la información valiosa y oportuna se expresa de manera incomprensible, puede volverse inútil.

La posibilidad de obtener información por parte del sujeto lo determina disponibilidad ... La disponibilidad de información se caracteriza por la capacidad de acceder a la fuente de información. La información debe presentarse de forma accesible (según el nivel de su percepción). Por lo tanto, las mismas preguntas se presentan de diferentes formas en los libros de texto escolares y las publicaciones científicas. La información sobre el mismo tema se puede presentar brevemente (de forma concisa, sin detalles insignificantes) o extensa (detalladamente, detallada).

Pregunta número 3 Formas de presentación y transmisión de información. Codificación de datos

Tipos de información: con la ayuda de la vista se percibe información visual , con la ayuda de escuchar información de audio. Según el grado de importancia de la información para el sujeto, la información se divide en tipos: personal, especial, publico .

Para las clases de objetos de información, estos tipos de información se distinguen como natural (para sitios naturales), social , técnico ... Dentro de estas especies, es posible dividirlas aún más en subespecies, por ejemplo, información genética, información socioeconómica, etc.

Por tipo de datos, la información se divide en información numérica, de texto, gráfica, de sonido y de video.

Cómo se transmite la información:

La información se transmite en forma de mensajes desde la fuente de información a su receptor a través de un canal de comunicación entre ellos. La fuente envía el mensaje transmitido, que se codifica en la señal transmitida. Esta señal se envía por el canal de comunicación. Como resultado, aparece una señal recibida en el receptor, que se decodifica y se convierte en un mensaje recibido.

Por ejemplo, mensaje, que contiene información sobre el pronóstico del tiempo, se transmite al receptor(al espectador) de la fuente- meteorólogo especialista a través del canal de comunicación- equipos de transmisión de televisión y televisión.

La transmisión de información a través de los canales de comunicación suele ir acompañada de la influencia de interferencias que provocan distorsiones y pérdidas de información.

Codificación de datos

Código- sistema de símbolos o señales.

Longitud del código- el número de caracteres utilizados para representar la información codificada Codificación de datos Es el proceso de formación de una determinada representación de información. Descodificación- decodificación de caracteres codificados, conversión de un código de carácter en su imagen Codificación binaria- información de codificación en forma de 0 y 1.

En informática, se llama codificación binaria y se basa en la representación de datos como una secuencia de solo dos caracteres: 0 y 1. Estos caracteres se denominan dígitos binarios, en inglés, dígito binario o bit abreviado (bit). Un bit puede expresar dos conceptos: 0 o 1 (sí o no, blanco o negro, verdadero o falso, etc.).

Pregunta no. 4 Unidades de medida de la cantidad de información.

¿Es posible medir objetivamente la cantidad de información? El resultado más importante de la teoría de la información es la conclusión:

El concepto de "cantidad de información" se basa en el hecho de que la información contenida en el mensaje puede interpretarse en el sentido de su novedad o reduciendo la incertidumbre de nuestro conocimiento sobre el objeto.

Así, el ingeniero estadounidense R. Hartley (1928) considera el proceso de obtención de información como la selección de un mensaje de un conjunto finito dado de antemano de N mensajes equiprobables, y la cantidad de información contenida en el mensaje seleccionado se determina como logaritmo binario de N.

Suponga que necesita adivinar un número de un conjunto de números del uno al cien. Usando la fórmula de Hartley, puede calcular cuánta información se requiere para esto: I = log 2100 = 6.644. Es decir, el mensaje sobre el número acertado contiene la cantidad de información aproximadamente igual a 6.644 unidades de información.

Para mensajes desiguales, el científico estadounidense Claude Shannon propuso en 1948 otra fórmula para determinar la cantidad de información, teniendo en cuenta la posible probabilidad desigual de mensajes en el conjunto.

Es fácil ver que si las probabilidades pag 1 , ..., pag norte son iguales, es decir, cada uno de ellos es igual 1 / N, entonces la fórmula de Shannon se convierte en la fórmula de Hartley.

Acordamos aceptar un bit como unidad de información. (inglés. poco- dígito binario).

Bit es la unidad de medida más pequeña. En la práctica, a menudo se usa una unidad más grande: byte igual a ocho bits. Se requieren exactamente ocho bits para codificar cualquiera de los 256 caracteres del alfabeto del teclado de la computadora (256 = 2 8).

También se utilizan ampliamente unidades de información derivadas incluso más grandes:

    1 kilobyte (KB) = 1024 bytes = 2 10 bytes,

    1 megabyte (MB) = 1024 KB = 2 20 bytes,

    1 Gigabyte (GB) = 1024 MB = 2 30 bytes.

Recientemente, en relación con el aumento en la cantidad de información procesada, unidades derivadas como:

    1 terabyte (TB) = 1024 GB = 2 40 bytes,

    1 Petabyte (PB) = 1024 TB = 2 50 bytes.

Para una unidad de información, se podría elegir la cantidad de información necesaria para distinguir, por ejemplo, diez mensajes igualmente probables. Entonces no será un binario (bit), sino una unidad decimal de información (dit).

Pregunta No. 5-No. 6 Clasificación de generación de computadoras

qué computadoras pertenecen a la primera generación?

PARA primera generación Suelen incluir coches creados a finales de los 50. Sus esquemas utilizados tubos electronicos... Estas computadoras fueron coches enormes, inconvenientes y demasiado caros que solo las grandes corporaciones y los gobiernos podrían adquirir. Las lámparas consumían una gran cantidad de electricidad y generaban mucho calor.

El conjunto de comandos era pequeño, el circuito de la unidad aritmética lógica y la unidad de control era bastante simple y prácticamente no había software. Los indicadores de la cantidad de RAM y el rendimiento fueron bajos. Para las E / S se utilizaron cintas perforadas, tarjetas perforadas, cintas magnéticas y dispositivos de impresión.

El rendimiento es de aproximadamente 10-20 mil operaciones por segundo.

Pero esto es solo el aspecto técnico. Otro es muy importante: las formas de usar las computadoras, el estilo de programación, las características del software.

Se escribieron programas para estas máquinas en el lenguaje de una máquina en particular... El matemático que hizo el programa se sentó en el panel de control de la máquina, ingresó y depuró los programas y los calculó. El proceso de depuración fue el que consumió más tiempo.

A pesar de las limitadas capacidades, estas máquinas permitieron realizar los cálculos más complejos necesarios para pronosticar el clima, resolver problemas de energía nuclear, etc.

La experiencia con la primera generación de máquinas ha demostrado que existe una gran brecha entre el tiempo que se tarda en desarrollar programas y el tiempo que se tarda en calcular.

Comenzaron a superar estos problemas mediante el desarrollo intensivo de herramientas de automatización de programación, la creación de sistemas de programas de servicio que simplifican el trabajo en la máquina y aumentan la eficiencia de su uso. Esto, a su vez, requirió cambios importantes en la estructura de las computadoras, encaminadas a acercarla a los requerimientos que surgen de la experiencia de operar computadoras.

Máquinas domésticas de primera generación: MESM (pequeña calculadora electrónica), BESM, Strela, Ural, M-20.

¿Qué computadoras pertenecen a la segunda generación?

Segunda generación tecnología informática: máquinas diseñadas alrededor de 1955-65. Se caracterizan por el uso en ellos como tubos electronicos y puertas lógicas de transistores discretos... Su memoria de acceso aleatorio se construyó sobre núcleos magnéticos. En este momento, la gama de equipos de entrada y salida usados ​​comenzó a expandirse, de alto rendimiento dispositivos para trabajar con cintas magnéticas, tambores magnéticos y los primeros discos magnéticos.

Rendimiento- hasta cientos de miles de operaciones por segundo, capacidad de memoria- hasta varias decenas de miles de palabras.

La llamada lenguajes de alto nivel , cuyos medios permiten la descripción de toda la secuencia necesaria de acciones computacionales en una forma visual y fácil de percibir.

Un programa escrito en un lenguaje algorítmico es incomprensible para una computadora que solo entiende el lenguaje de sus propios comandos. Por lo tanto, los programas especiales llamados traductores traducir el programa de un lenguaje de alto nivel a un lenguaje de máquina.

Ha aparecido una amplia gama de programas de biblioteca para resolver diversos problemas matemáticos. Han aparecido monitorear sistemas que controlan el modo de emisión y ejecución de programas. Los sistemas operativos modernos evolucionaron más tarde a partir de los sistemas de monitorización.

Por lo tanto, sistema operativo es un complemento para el dispositivo de control de la computadora.

Para algunas máquinas de segunda generación, ya se han creado sistemas operativos con capacidades limitadas.

Las máquinas de segunda generación se caracterizaron por incompatibilidad de software, lo que dificultaba la organización de grandes sistemas de información. Por lo tanto, a mediados de los años 60, se produjo una transición hacia la creación de computadoras, software compatible y construido sobre una base tecnológica microelectrónica.



¿Te gustó el artículo? Compártelo