Contactos

Los principios de funcionamiento de las computadoras de Von Neumann incluyen: Principios de von Neumann para la construcción de una computadora electrónica. Cuatro generaciones de ordenadores

Institución educativa estatal

educación profesional superior de la región de Tyumen

ACADEMIA ESTATAL DE TYUMEN

ECONOMÍA MUNDIAL, GOBERNANZA Y DERECHO

Departamento de Matemáticas e Informática

por disciplina

"SISTEMAS INFORMÁTICOS, REDES Y TELECOMUNICACIONES"

"PRINCIPIOS DE VON NEUMANN"

1. Introducción………………………………………………………………....2

2. Principios básicos de la arquitectura de John von Neumann……………….3

3. Estructura informática…………………………………………………………3

4. Cómo funciona la máquina de John von Neumann…………………………...4

5. Conclusión………………………………………………………………...6

Referencias…………………………………………………………...8


Introducción

Desde mediados de los años 60, el enfoque para la creación de computadoras ha cambiado mucho. En lugar de desarrollar hardware y software, se empezó a diseñar un sistema consistente en una síntesis de hardware y software. Al mismo tiempo, pasó a primer plano el concepto de interacción. Así surgió un nuevo concepto: la arquitectura informática.

La arquitectura informática suele entenderse como un conjunto de principios generales para organizar el hardware y el software y sus principales características, que determinan la funcionalidad de una computadora a la hora de resolver tipos de problemas relevantes.

La arquitectura informática cubre una gama significativa de problemas asociados con la creación de un complejo de hardware y software y tiene en cuenta una gran cantidad de factores determinantes. Entre estos factores, los principales son: costo, alcance de aplicación, funcionalidad, facilidad de uso y el hardware se considera uno de los principales componentes de la arquitectura.

La arquitectura de una herramienta informática debe distinguirse de la estructura, ya que la estructura de una herramienta informática determina su composición actual con un cierto nivel de detalle y describe las conexiones dentro de la herramienta. La arquitectura determina las reglas básicas para la interacción de los elementos que componen una herramienta informática, cuya descripción se lleva a cabo en la medida necesaria para la formación de reglas de interacción. No establece todas las conexiones, sino sólo las más necesarias, que es necesario conocer para un uso más competente de la herramienta utilizada.

Por lo tanto, al usuario de la computadora no le importa de qué elementos están hechos los circuitos electrónicos, si los comandos se ejecutan mediante circuito o programa, etc. La arquitectura de computadoras refleja verdaderamente una variedad de problemas relacionados con el diseño general y la construcción de computadoras y su software.

La arquitectura de la computadora incluye tanto una estructura que refleja la composición de la PC como el software y el soporte matemático. La estructura de una computadora es un conjunto de elementos y conexiones entre ellos. El principio básico en la construcción de todas las computadoras modernas es el control del programa.

John von Neumann sentó las bases de la doctrina de la arquitectura informática. La combinación de estos principios dio lugar a la arquitectura informática clásica (von Neumann).

Principios básicos de la arquitectura de John von Neumann

John von Neumann (1903 - 1957) fue un matemático estadounidense que hizo una importante contribución a la creación de las primeras computadoras y al desarrollo de métodos para su uso. Fue él quien sentó las bases de la doctrina de la arquitectura informática, participando en la creación del primer ordenador de tubo del mundo, ENIAC, en 1944, cuando ya se había elegido su diseño. En el proceso de trabajo, durante numerosas discusiones con sus colegas G. Goldstein y A. Berks, John von Neumann expresó la idea de una computadora fundamentalmente nueva. En 1946, los científicos describieron sus principios para la construcción de computadoras en el ahora clásico artículo "Consideración preliminar del diseño lógico de un dispositivo informático electrónico". Ha pasado más de medio siglo desde entonces, pero las disposiciones contenidas en él siguen siendo pertinentes en la actualidad.

El artículo fundamenta de manera convincente el uso del sistema binario para representar números, ya que anteriormente todas las computadoras almacenaban los números procesados ​​en forma decimal. Los autores demostraron las ventajas del sistema binario para la implementación técnica, la conveniencia y facilidad de realizar operaciones aritméticas y lógicas en él. Más tarde, las computadoras comenzaron a procesar tipos de información no numérica: texto, gráficos, sonido y otros, pero la codificación de datos binarios todavía constituye la base de información de cualquier computadora moderna.

Otra idea revolucionaria, cuya importancia es difícil de sobreestimar, es el principio del "programa almacenado" propuesto por Neumann. Inicialmente, el programa se configuró instalando puentes en un panel de conexiones especial. Fue una tarea muy laboriosa: por ejemplo, se necesitaron varios días para cambiar el programa de la máquina ENIAC, mientras que el cálculo en sí no pudo durar más que unos pocos minutos: las lámparas, de las cuales había una gran cantidad, fallaron. . Neumann fue el primero en darse cuenta de que un programa también podía almacenarse como una serie de ceros y unos, en la misma memoria que los números que procesaba. La ausencia de una diferencia fundamental entre el programa y los datos hizo posible que la computadora formara un programa por sí misma de acuerdo con los resultados de los cálculos.

Estructura informática

John von Neumann no sólo propuso los principios fundamentales de la estructura lógica de una computadora, sino que también propuso su estructura, que se reprodujo durante las dos primeras generaciones de computadoras. Los bloques principales según Neumann son una unidad de control (CU) y una unidad aritmético-lógica (ALU), generalmente combinadas en un procesador central, que también incluye un conjunto de registros de propósito general (GPR), para el almacenamiento intermedio de información durante su Procesando; memoria, memoria externa, dispositivos de entrada y salida. Cabe señalar que la memoria externa se diferencia de los dispositivos de entrada y salida en que los datos se ingresan en ella en una forma conveniente para una computadora, pero inaccesible a la percepción humana directa.

Arquitectura informática basada en los principios de John von Neumann.

Las líneas continuas con flechas indican la dirección de los flujos de información, las líneas de puntos indican señales de control.

¿Cómo funciona la máquina de John von Neumann?

Ahora hablemos con más detalle sobre cómo funciona una máquina construida con esta arquitectura. Una máquina von Neumann consta de un dispositivo de almacenamiento (memoria) - una memoria, una unidad aritmético-lógica - ALU, un dispositivo de control - CU, así como dispositivos de entrada y salida, que se pueden ver en sus circuitos y como se comentó anteriormente.

Los programas y datos se ingresan en la memoria desde el dispositivo de entrada a través de una unidad lógica aritmética. Todos los comandos del programa se escriben en celdas de memoria adyacentes y los datos para su procesamiento pueden estar contenidos en celdas arbitrarias. Para cualquier programa, el último comando debe ser el comando de apagado.

El comando consiste en una indicación de qué operación se debe realizar y las direcciones de las celdas de memoria donde se almacenan los datos en los que se debe realizar la operación especificada, así como las direcciones de la celda donde se debe escribir el resultado si es necesario. para ser almacenado en la memoria.

La unidad aritmético-lógica realiza las operaciones especificadas por las instrucciones sobre los datos especificados. Desde allí, los resultados se envían a la memoria o a un dispositivo de salida.

La unidad de control (CU) controla todas las partes de la computadora. De él, otros dispositivos reciben señales de "qué hacer" y de otros dispositivos la unidad de control recibe información sobre su estado. Contiene un registro especial (celda) llamado "contador de programa". Después de cargar el programa y los datos en la memoria, la dirección del primer comando del programa se escribe en el contador del programa y la unidad de control lee de la memoria el contenido de la celda de memoria, cuya dirección está en el contador del programa, y lo coloca en un dispositivo especial: el "Registro de comando". La unidad de control determina la operación del comando, "marca" en la memoria los datos cuyas direcciones se especifican en el comando y controla la ejecución del comando.

ALU: proporciona procesamiento aritmético y lógico de dos variables, como resultado de lo cual se forma una variable de salida. Las funciones de ALU generalmente se reducen a simples operaciones aritméticas, lógicas y de desplazamiento. También genera una serie de atributos de resultado (banderas) que caracterizan el resultado obtenido y los eventos que ocurrieron como resultado de su recepción (igualdad a cero, signo, paridad, desbordamiento). La unidad de control puede analizar los indicadores para decidir la secuencia posterior de ejecución del comando.

Como resultado de la ejecución de cualquier comando, el contador del programa cambia en uno y, por tanto, apunta al siguiente comando del programa. Cuando es necesario ejecutar un comando que no es el siguiente en orden al actual, pero que está separado del dado por un cierto número de direcciones, entonces un comando de salto especial contiene la dirección de la celda a la que se debe transferir el control. .


Conclusión

Entonces, resaltemos una vez más los principios básicos propuestos por von Neumann:

· El principio de codificación binaria. El sistema numérico binario se utiliza para representar datos y comandos.

· El principio de homogeneidad de la memoria. Tanto los programas (instrucciones) como los datos se almacenan en la misma memoria (y se codifican en el mismo sistema numérico, normalmente binario). Puede realizar las mismas acciones con comandos que con datos.

· El principio de direccionabilidad de la memoria. Estructuralmente, la memoria principal consta de celdas numeradas; Cualquier celda está disponible para el procesador en cualquier momento.

En 1946, D. von Neumann, G. Goldstein y A. Berks esbozaron en un artículo conjunto nuevos principios para la construcción y el funcionamiento de ordenadores. Posteriormente, las dos primeras generaciones de ordenadores se produjeron sobre la base de estos principios. Ha habido algunos cambios en las generaciones posteriores, aunque los principios de Neumann siguen siendo relevantes en la actualidad.

De hecho, Neumann logró resumir los desarrollos y descubrimientos científicos de muchos otros científicos y formular algo fundamentalmente nuevo a partir de ellos.

Los principios de von Neumann

  1. Uso del sistema numérico binario en las computadoras.. La ventaja sobre el sistema numérico decimal es que los dispositivos se pueden fabricar de forma bastante sencilla y las operaciones aritméticas y lógicas en el sistema numérico binario también se realizan de forma bastante sencilla.
  2. Control de software de computadora. El funcionamiento de la computadora está controlado por un programa que consta de un conjunto de comandos. Los comandos se ejecutan secuencialmente uno tras otro. La creación de una máquina con un programa almacenado fue el comienzo de lo que hoy llamamos programación.
  3. La memoria de la computadora se utiliza no solo para almacenar datos, sino también programas.. En este caso, tanto los comandos del programa como los datos están codificados en el sistema numérico binario, es decir, Su método de grabación es el mismo. Por lo tanto, en determinadas situaciones, puede realizar las mismas acciones con comandos que con datos.
  4. Las celdas de memoria de la computadora tienen direcciones numeradas secuencialmente.. En cualquier momento, puedes acceder a cualquier celda de memoria por su dirección. Este principio abrió la posibilidad de utilizar variables en la programación.
  5. Posibilidad de salto condicional durante la ejecución del programa.. A pesar de que los comandos se ejecutan secuencialmente, los programas pueden implementar la capacidad de saltar a cualquier sección del código.

La consecuencia más importante de estos principios es que ahora el programa ya no es una parte permanente de la máquina (como, por ejemplo, una calculadora). Se hizo posible cambiar fácilmente el programa. Pero el equipamiento, por supuesto, se mantiene sin cambios y es muy sencillo.

En comparación, el programa de la computadora ENIAC (que no tenía un programa almacenado) estaba determinado por puentes especiales en el panel. Reprogramar la máquina podría llevar más de un día (configure los puentes de manera diferente). Y aunque los programas para computadoras modernas pueden tardar años en escribirse, funcionan en millones de computadoras después de unos minutos de instalación en el disco duro.

¿Cómo funciona una máquina von Neumann?

Una máquina von Neumann consta de un dispositivo de almacenamiento (memoria) - una memoria, una unidad aritmético-lógica - ALU, un dispositivo de control - CU, así como dispositivos de entrada y salida.

Los programas y datos se ingresan en la memoria desde el dispositivo de entrada a través de una unidad lógica aritmética. Todos los comandos del programa se escriben en celdas de memoria adyacentes y los datos para su procesamiento pueden estar contenidos en celdas arbitrarias. Para cualquier programa, el último comando debe ser el comando de apagado.

El comando consiste en una indicación de qué operación se debe realizar (entre las posibles operaciones en un hardware determinado) y las direcciones de las celdas de memoria donde se almacenan los datos sobre los cuales se debe realizar la operación especificada, así como la dirección de la celda. donde se debe escribir el resultado (si es necesario guardarlo en la memoria).

La unidad aritmético-lógica realiza las operaciones especificadas por las instrucciones sobre los datos especificados.

Desde la unidad aritmético-lógica, los resultados se envían a la memoria o a un dispositivo de salida. La diferencia fundamental entre una memoria y un dispositivo de salida es que en una memoria, los datos se almacenan en una forma conveniente para que una computadora los procese y se envían a los dispositivos de salida (impresora, monitor, etc.) de una manera conveniente. para una persona.

La unidad de control controla todas las partes de la computadora. Desde el dispositivo de control, otros dispositivos reciben señales de "qué hacer", y de otros dispositivos la unidad de control recibe información sobre su estado.

El dispositivo de control contiene un registro especial (celda) llamado "contador de programa". Después de cargar el programa y los datos en la memoria, la dirección de la primera instrucción del programa se escribe en el contador del programa. La unidad de control lee de la memoria el contenido de la celda de memoria, cuya dirección está en el contador del programa, y ​​lo coloca en un dispositivo especial: el "Registro de comando". La unidad de control determina la operación del comando, "marca" en la memoria los datos cuyas direcciones se especifican en el comando y controla la ejecución del comando. La operación la realiza la ALU o el hardware de la computadora.

Como resultado de la ejecución de cualquier comando, el contador del programa cambia en uno y, por tanto, apunta al siguiente comando del programa. Cuando es necesario ejecutar un comando que no es el siguiente en orden al actual, pero que está separado del dado por un cierto número de direcciones, entonces un comando de salto especial contiene la dirección de la celda a la que se debe transferir el control. .

· Principio de codificación binaria

· Según este principio, toda la información que ingresa a una computadora se codifica mediante señales binarias (dígitos binarios, bits) y se divide en unidades llamadas palabras.

· El principio de homogeneidad de la memoria.

· Los programas y los datos se almacenan en la misma memoria. Por lo tanto, la computadora no distingue lo que está almacenado en una determinada celda de memoria: un número, texto o comando. Puede realizar las mismas acciones con comandos que con datos.

· El principio de direccionabilidad de la memoria.

· Estructuralmente, la memoria principal consta de celdas numeradas; Cualquier celda está disponible para el procesador en cualquier momento. Esto implica la capacidad de nombrar áreas de memoria para que los valores almacenados en ellas puedan ser accedidos o modificados posteriormente durante la ejecución del programa utilizando los nombres asignados.

· Principio de control de programa secuencial.

· Asume que el programa consta de un conjunto de comandos que el procesador ejecuta automáticamente uno tras otro en una secuencia determinada.

· El principio de rigidez arquitectónica.

· Inmutabilidad de la topología, arquitectura y lista de comandos durante la operación.

· Las computadoras construidas según estos principios se clasifican como computadoras von Neumann.

· La consecuencia más importante de estos principios es que ahora el programa ya no era una parte permanente de la máquina (como, por ejemplo, una calculadora). Se hizo posible cambiar fácilmente el programa. Pero el equipamiento, por supuesto, se mantiene sin cambios y es muy sencillo.

· En comparación, el programa del ordenador ENIAC (que no tenía ningún programa almacenado) se determinaba mediante puentes especiales en el panel. Reprogramar la máquina podría llevar más de un día (configure los puentes de manera diferente). Y aunque los programas para computadoras modernas pueden tardar años en escribirse, funcionan en millones de computadoras después de unos minutos de instalación en el disco duro.

·

· Una máquina von Neumann consta de un dispositivo de almacenamiento (memoria) - una memoria, un dispositivo aritmético-lógico - ALU, un dispositivo de control - CU, así como dispositivos de entrada y salida.

· Los programas y datos se ingresan en la memoria desde el dispositivo de entrada a través de una unidad lógica aritmética. Todos los comandos del programa se escriben en celdas de memoria adyacentes y los datos para su procesamiento pueden estar contenidos en celdas arbitrarias. Para cualquier programa, el último comando debe ser el comando de apagado.

· Un comando consiste en una indicación de qué operación se debe realizar (entre posibles operaciones en un determinado hardware) y las direcciones de las celdas de memoria donde se almacenan los datos sobre los que se debe realizar la operación especificada, así como la dirección del celda donde se debe escribir el resultado (si es necesario guardarlo en la memoria).


· La unidad aritmético-lógica realiza las operaciones especificadas por las instrucciones sobre los datos especificados.

· Desde la unidad lógica aritmética, los resultados se envían a la memoria o dispositivo de salida. La diferencia fundamental entre una memoria y un dispositivo de salida es que en una memoria, los datos se almacenan en una forma conveniente para que una computadora los procese y se envían a los dispositivos de salida (impresora, monitor, etc.) de una manera conveniente. para una persona.

· La unidad de control controla todas las partes del ordenador. Desde el dispositivo de control, otros dispositivos reciben señales de "qué hacer", y de otros dispositivos la unidad de control recibe información sobre su estado.

· El dispositivo de control contiene un registro especial (celda) llamado "contador de programa". Después de cargar el programa y los datos en la memoria, la dirección de la primera instrucción del programa se escribe en el contador del programa. La unidad de control lee de la memoria el contenido de la celda de memoria, cuya dirección está en el contador del programa, y ​​lo coloca en un dispositivo especial: el "Registro de comando". La unidad de control determina la operación del comando, "marca" en la memoria los datos cuyas direcciones se especifican en el comando y controla la ejecución del comando. La operación la realiza la ALU o el hardware de la computadora.

· Como resultado de la ejecución de cualquier comando, el contador del programa cambia en uno y, por tanto, apunta al siguiente comando del programa. Cuando es necesario ejecutar un comando que no es el siguiente en orden al actual, pero que está separado del dado por un cierto número de direcciones, entonces un comando de salto especial contiene la dirección de la celda a la que se debe transferir el control. .

16)Estructura y arquitectura del sistema informático.

Un sistema (del griego systema - un todo, un compuesto formado por partes) es un conjunto de elementos que interactúan entre sí, formando una cierta integridad, unidad.
Un sistema informático es un conjunto de una o más computadoras o procesadores, software y equipos periféricos, organizados para la ejecución conjunta de información y procesos informáticos.
Una característica distintiva de los sistemas informáticos en relación con las computadoras es la presencia en ellos de varias computadoras que implementan el procesamiento paralelo.
Principios básicos de diseño establecidos al crear una aeronave:
capacidad para trabajar en diferentes modos;
modularidad de la estructura de hardware y software, que permite mejorar y modernizar los sistemas informáticos sin modificaciones fundamentales;
unificación y estandarización de soluciones técnicas y de software;
jerarquía en la organización de la gestión de procesos;
la capacidad de los sistemas para adaptarse, autoajustarse y autoorganizarse;
Proporcionar los servicios necesarios a los usuarios al realizar cálculos.
Según su finalidad, los aviones se dividen en
universal,
orientado a problemas
especializado.
Los universales están diseñados para resolver una amplia clase de problemas. Los orientados a problemas se utilizan para resolver una cierta gama de problemas en un área relativamente estrecha. Los especializados se centran en resolver una clase limitada de problemas.
Según el tipo de avión se diferencian en
multimáquina
multiprocesador.
Un sistema informático puede construirse sobre la base de computadoras completas (computadora multimáquina) o sobre la base de procesadores individuales (computadora multiprocesador).
Por tipo de ordenador o procesador distinguen
homogéneo: construido sobre la base del mismo tipo de computadoras o procesadores.
Sistemas heterogéneos: incluye diferentes tipos de computadoras o procesadores.
Geográficamente, las aeronaves se dividen en:
concentrado (todos los componentes están ubicados muy cerca unos de otros);
distribuido (los componentes pueden ubicarse a una distancia considerable, por ejemplo, redes de computadoras);
Según los métodos de control de elementos de aeronaves, se distinguen.
centralizado,
descentralizado
con control mixto.

Según el modo de operación de la aeronave, los sistemas que operan en
Operacional
modos temporales no operativos.
Además, los aviones pueden ser estructuralmente
nivel único (solo hay un nivel general de procesamiento de datos);
Estructuras multinivel (jerárquicas). En los sistemas informáticos jerárquicos, las máquinas o procesadores se distribuyen en diferentes niveles de procesamiento de información; algunas máquinas (procesadores) pueden especializarse en realizar determinadas funciones.
Estructura del sistema informático.
La estructura de la aeronave es un conjunto de elementos integrados y sus conexiones. Los elementos de la computadora son computadoras y procesadores individuales.
En la estructura multinivel descrita se implementa la organización clásica de las fuerzas armadas de von Neumann e implica el procesamiento secuencial de información según un programa precompilado.
Arquitectura de sistemas informáticos. Clasificación de arquitecturas de sistemas informáticos.
La arquitectura del sistema es un conjunto de propiedades del sistema que son esenciales para su uso.
La arquitectura de una computadora es su descripción a algún nivel general, incluida una descripción de las capacidades de programación del usuario, sistemas de comando, sistemas de direccionamiento, organización de la memoria, etc.
Arquitectura clásica (arquitectura von Neumann): una unidad aritmético-lógica (ALU) a través de la cual pasa el flujo de datos y un dispositivo de control (CU) a través del cual pasa el flujo de comandos: el programa. Esta es una computadora de un solo procesador.
Sistema informático multimáquina. Aquí, varios procesadores incluidos en un sistema informático no tienen una RAM común, sino que cada uno tiene la suya propia (local). Cada computadora en un sistema de múltiples máquinas tiene una arquitectura clásica y dicho sistema se usa bastante.
La más antigua y famosa es la clasificación de arquitecturas de sistemas informáticos propuesta en 1966 por M. Flynn.

· La clasificación se basa en el concepto de hilo, que es una secuencia de elementos, comandos o datos procesados ​​por un procesador. Según la cantidad de flujos de comandos y flujos de datos, Flynn distingue cuatro clases de arquitecturas: SISD, MISD, SIMD, MIMD.
SISD (flujo de instrucciones único/flujo de datos único): flujo de instrucciones único y flujo de datos único. Esta clase incluye, en primer lugar, máquinas secuenciales clásicas o máquinas del tipo von Neumann, por ejemplo, PDP-11 o VAX 11/780. En tales máquinas solo hay un flujo de comandos, todos los comandos se procesan secuencialmente uno tras otro y cada comando inicia una operación en un flujo de datos. No importa que la canalización se pueda utilizar para aumentar la velocidad de procesamiento de instrucciones y la velocidad aritmética; tanto el CDC 6600 con unidades funcionales escalares como el CDC 7600 con canalizaciones entran en esta clase.
SIMD (flujo de instrucciones único/flujo de datos múltiple): flujo de instrucciones único y flujo de datos múltiple. En arquitecturas de este tipo, se conserva un flujo de comandos que, a diferencia de la clase anterior, incluye comandos vectoriales. Esto le permite realizar una operación aritmética con muchos datos (elementos vectoriales) a la vez. El método para realizar operaciones vectoriales no está especificado, por lo que el procesamiento de elementos vectoriales se puede realizar mediante una matriz de procesador, como en ILLIAC IV, o mediante una tubería, como, por ejemplo, en la máquina CRAY-1.
MISD (flujo de instrucciones múltiples/flujo de datos único): flujo de instrucciones múltiples y flujo de datos único. La definición implica la presencia en la arquitectura de muchos procesadores que procesan el mismo flujo de datos. Sin embargo, ni Flynn ni otros expertos en el campo de la arquitectura informática han podido proporcionar todavía un ejemplo convincente de un sistema informático real construido sobre este principio. Varios investigadores atribuyen a esto las máquinas transportadoras.

La primera máquina sumadora capaz de realizar cuatro operaciones aritméticas básicas fue la máquina sumadora del famoso científico y filósofo francés Blaise Pascal. El elemento principal era una rueda dentada, cuya invención se convirtió en sí misma en un acontecimiento clave en la historia de la tecnología informática. Me gustaría señalar que la evolución en el campo de la tecnología informática es desigual, espasmódica: los períodos de acumulación de fuerza son reemplazados por avances en el desarrollo, después de lo cual comienza un período de estabilización, durante el cual los resultados obtenidos se utilizan en la práctica y al mismo tiempo. Al mismo tiempo se acumulan conocimientos y fuerzas para el siguiente salto adelante. Después de cada revolución, el proceso de evolución alcanza un nivel nuevo y superior.

En 1671, el filósofo y matemático alemán Gustav Leibniz también creó una máquina sumadora basada en una rueda dentada de un diseño especial: la rueda dentada de Leibniz. La máquina sumadora de Leibniz, al igual que las máquinas sumadoras de sus predecesores, realizaba cuatro operaciones aritméticas básicas. Este período terminó y la humanidad, durante casi un siglo y medio, acumuló fuerzas y conocimientos para la siguiente ronda de evolución de la tecnología informática. Los siglos XVIII y XIX fueron una época en la que diversas ciencias, incluidas las matemáticas y la astronomía, se desarrollaron rápidamente. A menudo implicaban tareas que requerían cálculos que requerían mucho tiempo y mano de obra.

Otro personaje famoso en la historia de la informática fue el matemático inglés Charles Babbage. En 1823, Babbage comenzó a trabajar en una máquina para calcular polinomios, pero, lo que es más interesante, esta máquina, además de realizar cálculos directamente, debía producir resultados: imprimirlos en una placa negativa para impresión fotográfica. Estaba previsto que la máquina funcionara con una máquina de vapor. Debido a dificultades técnicas, Babbage no pudo completar su proyecto. Aquí, por primera vez, surgió la idea de utilizar algún dispositivo externo (periférico) para generar los resultados de los cálculos. Tenga en cuenta que otro científico, Scheutz, implementó la máquina concebida por Babbage en 1853 (resultó ser incluso más pequeña de lo planeado). Probablemente a Babbage le gustaba más el proceso creativo de buscar nuevas ideas que traducirlas en algo material. En 1834, describió los principios de funcionamiento de otra máquina, a la que llamó "analítica". Las dificultades técnicas nuevamente le impidieron realizar plenamente sus ideas. Babbage sólo pudo llevar la máquina a la etapa experimental. Pero es la idea el motor del progreso científico y tecnológico. La siguiente máquina de Charles Babbage fue la encarnación de las siguientes ideas:

Gestión del proceso de producción. La máquina controlaba el funcionamiento del telar, cambiando el patrón de la tela creada según la combinación de agujeros en una cinta de papel especial. Esta cinta se convirtió en la predecesora de los soportes de información que todos conocemos como tarjetas perforadas y cintas perforadas.

Programabilidad. La máquina también estaba controlada por una cinta de papel especial con agujeros. El orden de los agujeros determinaba los comandos y los datos procesados ​​por estos comandos. La máquina tenía un dispositivo aritmético y memoria. Los comandos de la máquina incluían incluso un comando de salto condicional, que cambiaba el curso de los cálculos en función de algunos resultados intermedios.

En el desarrollo de esta máquina participó la condesa Ada Augusta Lovelace, considerada la primera programadora del mundo.

Las ideas de Charles Babbage fueron desarrolladas y utilizadas por otros científicos. Así, en 1890, a principios del siglo XX, el estadounidense Herman Hollerith desarrolló una máquina que trabajaba con tablas de datos (¿el primer Excel?). La máquina estaba controlada por un programa de tarjetas perforadas. Se utilizó en el censo estadounidense de 1890. En 1896, Hollerith fundó la empresa que fue la predecesora de IBM Corporation. Con la muerte de Babbage se produjo otra ruptura en la evolución de la tecnología informática hasta los años 30 del siglo XX. Posteriormente, todo el desarrollo de la humanidad se volvió impensable sin las computadoras.

En 1938, el centro de desarrollo se trasladó brevemente de Estados Unidos a Alemania, donde Konrad Zuse creó una máquina que, a diferencia de sus predecesoras, no funcionaba con números decimales, sino binarios. Esta máquina también era mecánica, pero su indudable ventaja era que implementaba la idea de procesar datos en código binario. Continuando con su trabajo, Zuse creó en 1941 una máquina electromecánica, cuyo dispositivo aritmético se basaba en un relé. La máquina podría realizar operaciones de punto flotante.

En el extranjero, en Estados Unidos, durante este período también se estaba trabajando para crear máquinas electromecánicas similares. En 1944, Howard Aiken diseñó una máquina llamada Mark-1. Ella, como la máquina de Zuse, trabajaba con un relevo. Pero debido a que esta máquina fue claramente creada bajo la influencia del trabajo de Babbage, operaba con datos en forma decimal.

Naturalmente, debido a la gran proporción de piezas mecánicas, estas máquinas estaban condenadas al fracaso.

Cuatro generaciones de ordenadores

A finales de los años treinta del siglo XX, la necesidad de automatización de procesos informáticos complejos aumentó considerablemente. Esto fue facilitado por el rápido desarrollo de industrias como la fabricación de aviones, la física nuclear y otras. Desde 1945 hasta la actualidad, la tecnología informática ha pasado por 4 generaciones en su desarrollo:

Primera generación

La primera generación (1945-1954): computadoras de tubos de vacío. Estos son tiempos prehistóricos, la era del surgimiento de la tecnología informática. La mayoría de las máquinas de primera generación eran dispositivos experimentales y fueron construidas para probar ciertos principios teóricos. El peso y el tamaño de estos dinosaurios informáticos, que a menudo requerían edificios separados, se han convertido desde hace mucho tiempo en una leyenda.

A partir de 1943, un grupo de especialistas liderados por Howard Aitken, J. Mauchly y P. Eckert en Estados Unidos comenzaron a diseñar una computadora basada en tubos de vacío, en lugar de relés electromagnéticos. Esta máquina se llamaba ENIAC (Electronic Numeral Integrator And Computer) y funcionaba mil veces más rápido que la Mark-1. ENIAC contenía 18 mil tubos de vacío, ocupaba un área de 9x15 metros, pesaba 30 toneladas y consumía una potencia de 150 kilovatios. ENIAC también tenía un inconveniente importante: se controlaba mediante un panel de conexiones, no tenía memoria y, para configurar un programa, se necesitaban varias horas o incluso días para conectar los cables de la manera correcta. El peor de todos los defectos fue la terrible falta de fiabilidad de la computadora, ya que alrededor de una docena de tubos de vacío lograron fallar en un día de funcionamiento.

Para simplificar el proceso de configuración de programas, Mauchly y Eckert comenzaron a diseñar una nueva máquina que pudiera almacenar un programa en su memoria. En 1945, participó en el trabajo el famoso matemático John von Neumann, quien preparó un informe sobre esta máquina. En este informe, von Neumann formuló de forma clara y sencilla los principios generales del funcionamiento de los dispositivos informáticos universales, es decir, ordenadores. Esta fue la primera máquina operativa construida con tubos de vacío y se puso oficialmente en funcionamiento el 15 de febrero de 1946. Intentaron utilizar esta máquina para resolver algunos problemas preparados por von Neumann y relacionados con el proyecto de la bomba atómica. Luego fue transportada a Aberdeen Proving Ground, donde operó hasta 1955.

ENIAC se convirtió en el primer representante de la primera generación de computadoras. Cualquier clasificación es condicional, pero la mayoría de los expertos coincidieron en que las generaciones deben distinguirse en función de la base elemental sobre la que están construidas las máquinas. Así, la primera generación parece ser la de máquinas tubulares.

Es necesario señalar el enorme papel del matemático estadounidense von Neumann en el desarrollo de la tecnología de primera generación. Era necesario comprender las fortalezas y debilidades de ENIAC y hacer recomendaciones para desarrollos posteriores. El informe de von Neumann y sus colegas G. Goldstein y A. Burks (junio de 1946) formula claramente los requisitos para la estructura de las computadoras. Muchas de las disposiciones de este informe se denominaron principios de Von Neumann.

Los primeros proyectos de ordenadores domésticos fueron propuestos por S.A. Lebedev, B.I. Rameev en 1948 En 1949-51. según proyecto de S.A. Lebedev, se construyó MESM (pequeña máquina calculadora electrónica). El primer lanzamiento de prueba de un prototipo de la máquina tuvo lugar en noviembre de 1950 y la máquina se puso en funcionamiento en 1951. MESM trabajaba en un sistema binario, con un sistema de comando de tres direcciones, y el programa de cálculo se almacenaba en un dispositivo de almacenamiento operativo. La máquina de Lebedev con procesamiento de textos paralelo fue una solución fundamentalmente nueva. Fue uno de los primeros ordenadores del mundo y el primero del continente europeo con un programa almacenado.

La computadora de primera generación también incluye BESM-1 (gran máquina calculadora electrónica), cuyo desarrollo bajo la dirección de S.A. Lebedeva se completó en 1952, contenía 5 mil lámparas y funcionó sin fallas durante 10 horas. El rendimiento alcanzó las 10 mil operaciones por segundo (Apéndice 1).

Casi al mismo tiempo, se diseñó la computadora Strela (Apéndice 2) bajo el liderazgo de Yu.Ya. Bazilevsky, en 1953. fue puesto en producción. Posteriormente apareció la computadora Ural - 1 (Apéndice 3), que marcó el comienzo de una gran serie de máquinas Ural, desarrolladas y puestas en producción bajo la dirección de B.I. Rameva. En 1958 Se puso en producción en serie el ordenador M-20 de primera generación (velocidad de hasta 20 mil operaciones por segundo).

Las computadoras de primera generación tenían velocidades de varias decenas de miles de operaciones por segundo. Se utilizaron núcleos de ferrita como memoria interna y las ALU y las unidades de control se construyeron sobre tubos electrónicos. La velocidad del ordenador estaba determinada por un componente más lento, la memoria interna, y esto reducía el efecto general.

Las computadoras de primera generación estaban orientadas a realizar operaciones aritméticas. Al intentar adaptarlos a tareas de análisis, resultaron ineficaces.

Todavía no existían lenguajes de programación como tal y los programadores utilizaban instrucciones de máquina o ensambladores para codificar sus algoritmos. Esto complicó y retrasó el proceso de programación.

A finales de los años 50, las herramientas de programación estaban experimentando cambios fundamentales: se hizo una transición hacia la automatización de la programación utilizando lenguajes universales y bibliotecas de programas estándar. El uso de lenguas universales propició la aparición de los traductores.

Los programas se ejecutaron tarea por tarea, es decir. el operador tenía que monitorear el progreso de la tarea y, cuando llegaba al final, iniciar la siguiente tarea.

Segunda generación

En la segunda generación de computadoras (1955-1964), se utilizaron transistores en lugar de tubos de vacío, y como dispositivos de memoria comenzaron a utilizarse núcleos magnéticos y tambores magnéticos, ancestros lejanos de los discos duros modernos. Todo esto permitió reducir drásticamente el tamaño y el costo de las computadoras, que luego comenzaron a construirse para la venta por primera vez.

Pero los principales logros de esta época pertenecen al campo de los programas. En la segunda generación de ordenadores apareció por primera vez lo que ahora se llama sistema operativo. Al mismo tiempo, se desarrollaron los primeros lenguajes de alto nivel: Fortran, Algol, Cobol. Estas dos importantes mejoras hicieron que escribir programas de computadora fuera mucho más fácil y rápido; La programación, sin dejar de ser una ciencia, adquiere características de un oficio.

En consecuencia, se amplió el alcance de las aplicaciones informáticas. Ahora ya no eran sólo los científicos los que podían contar con el acceso a la tecnología informática; Se utilizaron computadoras en la planificación y la gestión, y algunas grandes empresas incluso computarizaron su contabilidad, anticipándose veinte años a la moda.

Los semiconductores se convirtieron en la base elemental de la segunda generación. Sin duda, los transistores pueden considerarse uno de los milagros más impresionantes del siglo XX.

En 1948 se concedió una patente para el descubrimiento del transistor a los estadounidenses D. Bardeen y W. Brattain, y ocho años después, ellos, junto con el teórico V. Shockley, se convirtieron en premios Nobel. Las velocidades de conmutación de los primeros elementos de transistores resultaron ser cientos de veces superiores a las de los elementos de tubo, así como su fiabilidad y eficiencia. Por primera vez, se empezó a utilizar ampliamente la memoria en núcleos de ferrita y películas magnéticas delgadas, y se probaron elementos inductivos (parámetros).

El primer ordenador de a bordo instalado en un cohete intercontinental, el Atlas, se puso en funcionamiento en Estados Unidos en 1955. La máquina utilizaba 20 mil transistores y diodos y consumía 4 kilovatios. En 1961, las computadoras terrestres de Barrow controlaban los vuelos espaciales de los cohetes Atlas y las máquinas de IBM controlaban el vuelo del astronauta Gordon Cooper. La computadora controló los vuelos de naves espaciales no tripuladas del tipo Ranger a la Luna en 1964, así como la nave espacial Mariner a Marte. Las computadoras soviéticas realizaban funciones similares.

En 1956, IBM desarrolló cabezales magnéticos flotantes sobre un colchón de aire. Su invención hizo posible crear un nuevo tipo de memoria: los dispositivos de almacenamiento en disco, cuya importancia se apreció plenamente en las décadas posteriores de desarrollo de la tecnología informática. Los primeros dispositivos de almacenamiento en disco aparecieron en las máquinas IBM-305 y RAMAC (Apéndice 4). Este último tenía un paquete compuesto por 50 discos metálicos recubiertos magnéticamente que giraban a una velocidad de 12.000 rpm. La superficie del disco contenía 100 pistas para grabar datos, cada una de las cuales contenía 10.000 caracteres.

Las primeras computadoras centrales con transistores producidas en serie se lanzaron en 1958 simultáneamente en Estados Unidos, Alemania y Japón.

Aparecen las primeras minicomputadoras (por ejemplo, PDP-8 (Apéndice 5)).

En la Unión Soviética, los primeros aparatos sin lámpara, “Setun”, “Razdan” y “Razdan-2”, se crearon en 1959-1961. En los años 60, los diseñadores soviéticos desarrollaron alrededor de 30 modelos de computadoras con transistores, la mayoría de los cuales comenzaron a producirse en masa. El más potente de ellos, el Minsk-32, realizó 65.000 operaciones por segundo. Aparecieron familias enteras de vehículos: “Ural”, “Minsk”, BESM.

El poseedor del récord entre las computadoras de segunda generación fue el BESM-6 (Apéndice 6), que tenía una velocidad de alrededor de un millón de operaciones por segundo, una de las más productivas del mundo. La arquitectura y muchas soluciones técnicas de esta computadora eran tan progresistas y adelantadas a su tiempo que se ha utilizado con éxito casi hasta nuestros días.

Especialmente para la automatización de cálculos de ingeniería en el Instituto de Cibernética de la Academia de Ciencias de la República Socialista Soviética de Ucrania bajo la dirección del académico V.M. Glushkov desarrolló las computadoras MIR (1966) y MIR-2 (1969). Una característica importante de la máquina MIR-2 fue el uso de una pantalla de televisión para el control visual de la información y un lápiz óptico, con el que era posible corregir los datos directamente en la pantalla.

La construcción de sistemas de este tipo, que incluyen alrededor de 100 mil elementos de conmutación, sería simplemente imposible si se utilizara la tecnología de lámparas. Así, la segunda generación nació en las profundidades de la primera, adoptando muchas de sus características. Sin embargo, a mediados de los años 60, el auge en el campo de la producción de transistores alcanzó su máximo: se produjo la saturación del mercado. El hecho es que el montaje de equipos electrónicos era un proceso lento y muy laborioso que no se prestaba bien a la mecanización y la automatización. Por tanto, están dadas las condiciones para una transición hacia una nueva tecnología que se adapte a la creciente complejidad de los circuitos eliminando las conexiones tradicionales entre sus elementos.

Tercera generación

Finalmente, en la tercera generación de computadoras (1965-1974), comenzaron a usarse por primera vez circuitos integrados: dispositivos completos y unidades de decenas y cientos de transistores, fabricados en un solo cristal semiconductor (lo que ahora se llama microcircuitos). Al mismo tiempo, apareció la memoria semiconductora, que todavía se utiliza en los ordenadores personales como RAM durante todo el día. La prioridad en la invención de los circuitos integrados, que se convirtieron en la base elemental de las computadoras de tercera generación, pertenece a los científicos estadounidenses D. Kilby y R. Noyce, quienes hicieron este descubrimiento de forma independiente. La producción en masa de circuitos integrados comenzó en 1962 y en 1964 comenzó rápidamente la transición de elementos discretos a integrados. El mencionado ENIAK, de 9x15 metros, en 1971 podría haberse montado sobre una placa de 1,5 centímetros cuadrados. Comenzó la transformación de la electrónica en microelectrónica.

Durante estos años, la producción de computadoras adquirió una escala industrial. IBM, que se había convertido en líder, fue la primera en implementar una familia de computadoras: una serie de computadoras que eran totalmente compatibles entre sí, desde las más pequeñas, del tamaño de un pequeño armario (nunca habían hecho nada más pequeño entonces), hasta los modelos más potentes y caros. La más extendida en aquellos años fue la familia System/360 de IBM, a partir de la cual se desarrolló la serie de ordenadores ES en la URSS. En 1973 se lanzó el primer modelo de computadora de la serie ES y, desde 1975, aparecieron los modelos ES-1012, ES-1032, ES-1033, ES-1022 y, posteriormente, el más potente ES-1060.

Como parte de la tercera generación, en los EE. UU. se construyó una máquina única "ILLIAK-4", que en su versión original estaba prevista para utilizar 256 dispositivos de procesamiento de datos fabricados en circuitos integrados monolíticos. El proyecto fue posteriormente modificado debido al coste bastante elevado (más de 16 millones de dólares). El número de procesadores tuvo que reducirse a 64 y también cambiarse a circuitos integrados con un bajo grado de integración. Una versión abreviada del proyecto se completó en 1972; la velocidad nominal del ILLIAC-4 era de 200 millones de operaciones por segundo. Durante casi un año, esta computadora mantuvo el récord de velocidad de computación.

A principios de los años 60 aparecieron las primeras minicomputadoras: computadoras pequeñas y de bajo consumo asequibles para pequeñas empresas o laboratorios. Las minicomputadoras representaron el primer paso hacia las computadoras personales, cuyos prototipos no se lanzaron hasta mediados de los años 70. La conocida familia de minicomputadoras PDP de Digital Equipment sirvió como prototipo para la serie de máquinas soviéticas SM.

Mientras tanto, el número de elementos y conexiones entre ellos que caben en un microcircuito crecía constantemente, y en los años 70 los circuitos integrados ya contenían miles de transistores. Esto hizo posible combinar la mayoría de los componentes de la computadora en una sola pieza pequeña, que es lo que hizo Intel en 1971, lanzando el primer microprocesador destinado a las calculadoras de escritorio que acababan de aparecer. Este invento estaba destinado a producir una verdadera revolución en la próxima década; después de todo, el microprocesador es el corazón y el alma de nuestra computadora personal.

Pero eso no es todo: verdaderamente, el cambio de los años 60 y 70 fue una época fatídica. En 1969 nació la primera red informática mundial, el embrión de lo que hoy llamamos Internet. Y en el mismo 1969, aparecieron simultáneamente el sistema operativo Unix y el lenguaje de programación C, lo que tuvo un gran impacto en el mundo del software y aún mantiene su posición de liderazgo.

Cuarta generación

Otro cambio en la base de elementos provocó un cambio de generaciones. En los años 70 se trabajó activamente en la creación de circuitos integrados grandes y ultragrandes (LSI y VLSI), que permitieron colocar decenas de miles de elementos en un solo chip. Esto resultó en una reducción significativa adicional en el tamaño y el costo de las computadoras. Trabajar con el software se ha vuelto más fácil de usar, lo que ha llevado a un aumento en el número de usuarios.

En principio, con tal grado de integración de elementos, fue posible intentar crear una computadora funcionalmente completa en un solo chip. Se hicieron los intentos oportunos, aunque la mayoría de ellos fueron recibidos con una sonrisa de incredulidad. Probablemente, habría menos de estas sonrisas si fuera posible prever que fue esta idea la que provocaría la extinción de los mainframes en apenas una década y media.

Sin embargo, a principios de los años 70, Intel lanzó el microprocesador (MP) 4004. Y si antes solo había tres direcciones en el mundo de la informática (supercomputadoras, mainframes y minicomputadoras), ahora se les agregó otra: el microprocesador. En general, se entiende por procesador una unidad funcional de una computadora diseñada para el procesamiento lógico y aritmético de información basado en el principio de control de microprogramas. Según la implementación del hardware, los procesadores se pueden dividir en microprocesadores (todas las funciones del procesador están completamente integradas) y procesadores con integración baja y media. Estructuralmente, esto se expresa en el hecho de que los microprocesadores implementan todas las funciones del procesador en un chip, mientras que otros tipos de procesadores las implementan conectando una gran cantidad de chips.

Así, el primer microprocesador 4004 fue creado por Intel a finales de los años 70. Era un dispositivo informático paralelo de 4 bits y sus capacidades eran muy limitadas. El 4004 podía realizar cuatro operaciones aritméticas básicas y al principio sólo se utilizaba en calculadoras de bolsillo. Posteriormente, su ámbito de aplicación se amplió para incluir el uso en varios sistemas de control (por ejemplo, para controlar los semáforos). Intel, habiendo previsto correctamente la promesa de los microprocesadores, continuó con un desarrollo intensivo y uno de sus proyectos finalmente condujo a un gran éxito, que predeterminó el camino futuro del desarrollo de la tecnología informática.

Este fue el proyecto para desarrollar el procesador de 8 bits 8080 (1974). Este microprocesador tenía un sistema de mando bastante desarrollado y era capaz de dividir números. Se utilizó para crear la computadora personal Altair, para la cual el joven Bill Gates escribió uno de sus primeros intérpretes de lenguaje BÁSICO. Probablemente, es a partir de este momento que debería contarse la quinta generación.

Quinta generación

La transición a las computadoras de quinta generación implicó una transición a nuevas arquitecturas destinadas a crear inteligencia artificial.

Se creía que la arquitectura informática de quinta generación contendría dos bloques principales. Uno de ellos es el propio ordenador, en el que la comunicación con el usuario se realiza mediante una unidad denominada “interfaz inteligente”. La tarea de la interfaz es comprender el texto escrito en lenguaje natural o voz y traducir el planteamiento del problema así planteado a un programa de trabajo.

Requisitos básicos para computadoras de quinta generación: Creación de una interfaz hombre-máquina desarrollada (reconocimiento de voz, reconocimiento de imágenes); Desarrollo de programación lógica para la creación de bases de conocimiento y sistemas de inteligencia artificial; Creación de nuevas tecnologías en la producción de equipos informáticos; Creación de nuevas arquitecturas informáticas y sistemas informáticos.

Las nuevas capacidades técnicas de la tecnología informática deberían haber ampliado la gama de tareas a resolver y permitir pasar a las tareas de creación de inteligencia artificial. Uno de los componentes necesarios para la creación de inteligencia artificial son las bases de conocimiento (bases de datos) en diversas áreas de la ciencia y la tecnología. Crear y utilizar bases de datos requiere sistemas informáticos de alta velocidad y una gran cantidad de memoria. Las computadoras de uso general son capaces de realizar cálculos de alta velocidad, pero no son adecuadas para realizar operaciones de comparación y clasificación de alta velocidad en grandes volúmenes de registros, generalmente almacenados en discos magnéticos. Para crear programas que llenan, actualizan y trabajan con bases de datos, se crearon lenguajes de programación lógicos y orientados a objetos especiales que brindan las mayores capacidades en comparación con los lenguajes de procedimiento convencionales. La estructura de estos lenguajes requiere una transición de la arquitectura informática tradicional de von Neumann a arquitecturas que tengan en cuenta los requisitos de las tareas de creación de inteligencia artificial.

La clase de supercomputadoras incluye computadoras que tienen el máximo rendimiento en el momento de su lanzamiento, o las llamadas computadoras de quinta generación.

Las primeras supercomputadoras aparecieron ya entre las computadoras de segunda generación (1955 - 1964, ver computadoras de segunda generación); fueron diseñadas para resolver problemas complejos que requerían cálculos de alta velocidad. Estos son LARC de UNIVAC, Stretch de IBM y CDC-6600 (familia CYBER) de Control Data Corporation, utilizaron métodos de procesamiento paralelo (aumentando el número de operaciones realizadas por unidad de tiempo), canalización de comandos (cuando durante la ejecución de un comando el segundo se lee de la memoria y se prepara para su ejecución) y procesamiento paralelo utilizando una estructura de procesador compleja que consta de una matriz de procesadores de datos y un procesador de control especial que distribuye tareas y controla el flujo de datos en el sistema. Las computadoras que ejecutan múltiples programas en paralelo utilizando múltiples microprocesadores se denominan sistemas multiprocesador. Hasta mediados de los años 80, la lista de los mayores fabricantes de supercomputadoras del mundo incluía a Sperry Univac y Burroughs. El primero es conocido, en particular, por sus mainframes UNIVAC-1108 y UNIVAC-1110, que se utilizaron ampliamente en universidades y organizaciones gubernamentales.

Tras la fusión de Sperry Univac y Burroughs, UNISYS combinada continuó brindando soporte a ambas líneas de mainframe manteniendo la compatibilidad ascendente en cada una. Esta es una clara indicación de la regla inmutable que apoyó el desarrollo de mainframes: preservar la funcionalidad del software desarrollado anteriormente.

Intel también es famosa en el mundo de las supercomputadoras. Las computadoras multiprocesador Paragon de Intel en la familia de estructuras multiprocesador de memoria distribuida se han vuelto igualmente clásicas.

Principios de von Neumann

En 1946, D. von Neumann, G. Goldstein y A. Berks esbozaron en un artículo conjunto nuevos principios para la construcción y el funcionamiento de ordenadores. Posteriormente, las dos primeras generaciones de ordenadores se produjeron sobre la base de estos principios. Ha habido algunos cambios en las generaciones posteriores, aunque los principios de Neumann siguen siendo relevantes en la actualidad. De hecho, Neumann logró resumir los desarrollos y descubrimientos científicos de muchos otros científicos y formular principios fundamentalmente nuevos sobre su base:
1. El principio de representación y almacenamiento de números.
El sistema numérico binario se utiliza para representar y almacenar números. La ventaja sobre el sistema numérico decimal es que el bit es fácil de implementar, la memoria de bits de gran capacidad es bastante barata, los dispositivos se pueden fabricar de manera bastante simple y las operaciones aritméticas y lógicas en el sistema numérico binario también son bastante simples.
2. El principio de control de programas informáticos.
El funcionamiento de la computadora está controlado por un programa que consta de un conjunto de comandos. Los comandos se ejecutan secuencialmente uno tras otro. Los comandos procesan datos almacenados en la memoria de la computadora.
3. Principio del programa almacenado.
La memoria de la computadora se utiliza no solo para almacenar datos, sino también programas. En este caso, tanto los comandos del programa como los datos están codificados en el sistema numérico binario, es decir, Su método de grabación es el mismo. Por lo tanto, en determinadas situaciones, puede realizar las mismas acciones con comandos que con datos.
4. El principio de acceso directo a la memoria.
Las celdas de RAM de la computadora tienen direcciones numeradas secuencialmente. En cualquier momento, puedes acceder a cualquier celda de memoria por su dirección.
5. El principio de ramificación y cálculos cíclicos.
Los comandos de salto condicional le permiten implementar una transición a cualquier sección de código, brindando así la capacidad de organizar ramificaciones y volver a ejecutar ciertas secciones del programa.
La consecuencia más importante de estos principios es que ahora el programa ya no es una parte permanente de la máquina (como, por ejemplo, una calculadora). Se hizo posible cambiar fácilmente el programa. Pero el equipamiento, por supuesto, se mantiene sin cambios y es muy sencillo. En comparación, el programa de la computadora ENIAC (que no tenía un programa almacenado) estaba determinado por puentes especiales en el panel. Reprogramar la máquina podría llevar más de un día (configure los puentes de manera diferente).
Y aunque los programas para computadoras modernas pueden tardar meses en desarrollarse, su instalación (instalación en una computadora) lleva varios minutos, incluso para programas grandes. Un programa de este tipo puede instalarse en millones de ordenadores y ejecutarse en cada uno de ellos durante años.

Aplicaciones

Anexo 1

Apéndice 2

Computadora “Ural”

Apéndice 3

Computadora "Strela"

Apéndice 4

IBM-305 y RAMAC

Apéndice 5

miniordenador PDP-8

Apéndice 6

Literatura:

1) Broido V.L. Sistemas informáticos, redes y telecomunicaciones. Libro de texto para universidades. 2da ed. – San Petersburgo: Peter, 2004

2) Zhmakin A.P. Arquitectura de Computadores. – San Petersburgo: BHV - Petersburgo, 2006

3) Semenenko V.A. y otros Computadoras electrónicas. Libro de texto para escuelas vocacionales - M.: Escuela Superior, 1991



¿Te gustó el artículo? Compártelo