Contactos

Los principios de funcionamiento de las computadoras de Von Neumann incluyen: Los principios de John von Neumann. generaciones de computadoras ¿Cómo funciona una máquina von Neumann?

En 1946, D. von Neumann, G. Goldstein y A. Berks esbozaron en un artículo conjunto nuevos principios para la construcción y el funcionamiento de ordenadores. Posteriormente, las dos primeras generaciones de ordenadores se produjeron sobre la base de estos principios. Ha habido algunos cambios en las generaciones posteriores, aunque los principios de Neumann siguen siendo relevantes en la actualidad.

De hecho, Neumann logró resumir los desarrollos y descubrimientos científicos de muchos otros científicos y formular algo fundamentalmente nuevo a partir de ellos.

Principio de control del programa: un programa consta de un conjunto de comandos ejecutados por un procesador en una secuencia determinada.

El principio de homogeneidad de la memoria: Los programas y los datos se almacenan en la misma memoria.

Principio de focalización: Estructuralmente, la memoria principal consta de celdas numeradas. Cualquier celda está disponible para el procesador en cualquier momento.

Las computadoras construidas según los principios anteriores son del tipo von Neumann.

La consecuencia más importante de estos principios es que ahora el programa ya no es una parte permanente de la máquina (como, por ejemplo, una calculadora). Se hizo posible cambiar fácilmente el programa. En comparación, el programa de la computadora ENIAC (que no tenía un programa almacenado) estaba determinado por puentes especiales en el panel. Reprogramar la máquina podría llevar más de un día (configure los puentes de manera diferente). Y aunque los programas para computadoras modernas pueden tardar años en escribirse, pero funcionan en millones de computadoras, la instalación de programas no requiere una inversión de tiempo significativa.

Además de los tres principios anteriores, von Neumann propuso el principio de codificación binaria: El sistema numérico binario se utiliza para representar datos y comandos (las primeras máquinas usaban el sistema numérico decimal). Pero los desarrollos posteriores mostraron la posibilidad de utilizar sistemas numéricos no tradicionales.

A principios de 1956, por iniciativa de Académico S.L. Sobolev, jefe del Departamento de Matemática Computacional de la Facultad de Mecánica y Matemáticas de la Universidad de Moscú, se creó un departamento de electrónica en el centro de computación de la Universidad Estatal de Moscú y se inició un seminario con el objetivo de crear un ejemplo práctico de computadora digital. destinado a su uso en universidades, así como en laboratorios y oficinas de diseño de empresas industriales. Era necesario desarrollar una computadora pequeña que fuera fácil de aprender y usar, confiable, económica y al mismo tiempo eficaz en una amplia gama de tareas. Un estudio exhaustivo durante un año de las computadoras disponibles en ese momento y las capacidades técnicas de su implementación llevaron a una decisión no estándar de utilizar en la máquina creada no un código simétrico binario, sino ternario, implementando un sistema numérico equilibrado, que D. Knuth, veinte años después, lo llamaría quizás el más elegante y, como se supo más tarde, cuyas ventajas fueron identificadas por K. Shannon en 1950. A diferencia del código binario con los números 0, 1, generalmente aceptado en las computadoras modernas, que es aritméticamente inferior debido a la imposibilidad de representar directamente números negativos en él, el código ternario con los números -1, 0, 1 proporciona el código óptimo. construcción de la aritmética de números con signo. El sistema numérico ternario se basa en el mismo principio posicional de codificación de números que el sistema binario adoptado en las computadoras modernas, pero el peso i La enésima posición (dígito) en él no es igual a 2 i , sino a 3 i . Además, los dígitos en sí no son de dos dígitos (no bits), sino de tres dígitos (trites); además de 0 y 1, permiten un tercer valor, que en un sistema simétrico es -1, por lo que ambos positivos y los números negativos son uniformemente representables. El valor de un entero N trillado se determina de manera similar al valor de un entero de n bits:

donde a i ∈ (1, 0, -1) es el valor del i-ésimo dígito.

En abril de 1960 se llevaron a cabo pruebas interdepartamentales de un prototipo de computadora llamado "Setun". Según los resultados de estas pruebas, "Setun" fue reconocido como el primer modelo funcional de una computadora universal basada en elementos sin lámpara, que se caracteriza por " alto rendimiento, suficiente confiabilidad, pequeñas dimensiones y facilidad de mantenimiento". "Setun", gracias a la naturalidad del código simétrico ternario, resultó ser una herramienta informática verdaderamente universal, fácilmente programable y muy eficaz, que ha demostrado positivamente su eficacia. en particular, como medio técnico para la enseñanza de matemáticas computacionales en más de treinta universidades. Y en la Academia de Ingeniería de la Fuerza Aérea. Zhukovsky, fue en "Setun" donde se implementó por primera vez un sistema automatizado de capacitación por computadora.

Según los principios de von Neumann, una computadora consta de:

· unidad aritmética lógica - ALU(ing. ALU, Unidad Aritmética y Lógica), que realiza operaciones aritméticas y lógicas; dispositivo de control -UU, diseñado para organizar la ejecución de programas;

· dispositivos de almacenamiento (almacenamiento), incl. memoria de acceso aleatorio (RAM - memoria primaria) y dispositivo de almacenamiento externo (ESD); en aproximadamente memoria principal se almacenan datos y programas; un módulo de memoria consta de muchas celdas numeradas; cada celda puede contener un número binario que se interpreta como un comando o como datos;

· en dispositivos de entrada/salida, que sirven para transferir datos entre la computadora y el entorno externo, y que constan de diversos dispositivos periféricos, que incluyen memoria secundaria, equipos de comunicaciones y terminales.

Proporciona interacción entre el procesador (ALU y unidad de control), la memoria principal y los dispositivos de entrada/salida con sistema de autobús .

La arquitectura informática de Von Neumann se considera clásica; la mayoría de las computadoras se basan en ella. En general, cuando la gente habla de arquitectura von Neumann, se refiere a la separación física del módulo del procesador del programa y los dispositivos de almacenamiento de datos. La idea de almacenar programas informáticos en una memoria compartida hizo posible convertir las computadoras en dispositivos universales capaces de realizar una amplia gama de tareas. Los programas y datos se ingresan en la memoria desde el dispositivo de entrada a través de una unidad lógica aritmética. Todos los comandos del programa se escriben en celdas de memoria adyacentes y los datos para su procesamiento pueden estar contenidos en celdas arbitrarias. Para cualquier programa, el último comando debe ser el comando de apagado.

La gran mayoría de las computadoras actuales son máquinas von Neumann. Las únicas excepciones son ciertos tipos de sistemas de computación paralela, en los que no hay un contador de programas, el concepto clásico de variable no está implementado y existen otras diferencias fundamentales significativas con respecto al modelo clásico (los ejemplos incluyen computadoras de transmisión y reducción). Aparentemente, se producirá una desviación significativa de la arquitectura de von Neumann como resultado del desarrollo de la idea de las máquinas de quinta generación, en las que el procesamiento de la información no se basa en cálculos, sino en conclusiones lógicas.

2.2 Comando, formatos de comando

Un comando es una descripción de una operación elemental que debe realizar la computadora.

Estructura de equipo.

La cantidad de bits que se asignan para escribir un comando depende del hardware de un modelo de computadora en particular. En este sentido, consideraremos la estructura de un equipo específico para el caso general.

En general, el comando contiene la siguiente información:

Ø código de la operación que se está realizando;

Ø instrucciones para definir operandos o sus direcciones;

Ø instrucciones para colocar el resultado resultante.

Para cualquier máquina determinada, se debe especificar el número de bits binarios asignados en la instrucción para cada una de sus direcciones y para el código de operación, así como los propios códigos de operación. El número de bits de una instrucción asignados al construir una máquina para cada una de sus direcciones determina el límite superior del número de celdas de memoria de la máquina que tienen direcciones separadas: si la dirección de una instrucción está representada por n bits, entonces la memoria de acceso rápido no puede contener más de 2 n celdas.

Los comandos se ejecutan secuencialmente, comenzando desde la dirección inicial (punto de entrada) del programa ejecutable, la dirección de cada comando posterior es una unidad mayor que la dirección del comando anterior, si no fue un comando de salto.

En las máquinas modernas, la longitud de las instrucciones es variable (normalmente de dos a cuatro bytes) y las formas de especificar direcciones variables son muy diversas.

La parte de dirección del comando puede contener, por ejemplo:

Operando;

Dirección del operando;

Dirección de dirección del operando (el número de byte desde el que se encuentra la dirección del operando), etc.

Consideremos la estructura de posibles opciones para varios tipos de comandos.

Comandos de tres direcciones.

Comandos bidireccionales.

Comandos de unidifusión.

Comandos no direccionados.

Considere la operación de suma binaria: c = a + b.

Para cada variable en la memoria, definimos direcciones condicionales:

Sea 53 el código de operación de suma.

En este caso, la estructura del comando de tres direcciones se ve así:

· Comandos de tres direcciones.

El proceso de ejecución del comando se divide en las siguientes etapas:

La siguiente instrucción se selecciona de la celda de memoria, cuya dirección se almacena en el contador del programa; el contenido del contador cambia y ahora contiene la dirección del siguiente comando en orden;

El comando seleccionado se transmite al dispositivo de control al registro de comando;

El dispositivo de control descifra el campo de dirección del comando;

Según las señales de la unidad de control, los valores de los operandos se leen de la memoria y se escriben en la ALU en registros de operandos especiales;

La unidad de control descifra el código de operación y emite una señal a la ALU para realizar la operación correspondiente sobre los datos;

El resultado de la operación en este caso se envía a la memoria (en computadoras de una dirección y de dos direcciones permanece en el procesador);

Todas las acciones anteriores se realizan hasta llegar al comando STOP.

2.3 La computadora como autómata

“Las máquinas digitales electrónicas con control de programa son un ejemplo de uno de los tipos más comunes de convertidores de información discreta, llamados autómatas discretos o digitales” (Glushkov V.M. Síntesis de autómatas digitales)

Cualquier computadora funciona automáticamente (ya sea una computadora grande o pequeña, una computadora personal o una supercomputadora). En este sentido, una computadora como un autómata puede describirse mediante el diagrama de bloques que se muestra en la Fig. 2.1.

En los párrafos anteriores se consideró el diagrama de bloques de una computadora. Con base en el diagrama de bloques de la computadora y el diagrama de circuito de la máquina, podemos comparar los bloques del circuito de la máquina y los elementos del diagrama de bloques de la computadora.

Como elementos ejecutivos se incluyen en la máquina los siguientes:

Dispositivo aritmético-lógico:

· memoria;

· dispositivos de entrada/salida de información.

El elemento de control de la máquina es el dispositivo de control, que en realidad proporciona el funcionamiento automático. Como ya se señaló, en los dispositivos informáticos modernos el principal elemento ejecutivo es un procesador o microprocesador, que contiene una ALU, una memoria y un dispositivo de control.

Los dispositivos auxiliares de la máquina pueden ser todo tipo de medios adicionales que mejoren o amplíen las capacidades de la máquina.

maquina de torcer

Máquina de Turing (MT)- ejecutante abstracto (máquina informática abstracta). Fue propuesto por Alan Turing en 1936 para formalizar el concepto de algoritmo.

Una máquina de Turing es una extensión de una máquina de estados finitos y, según la tesis de Church-Turing, capaz de imitar a todos los artistas(especificando reglas de transición) que de alguna manera implementan el proceso de cálculo paso a paso, en el que cada paso de cálculo es bastante elemental.

La estructura de una máquina de Turing[

La máquina de Turing incluye un ilimitado en ambas direcciones. cinta(Son posibles máquinas de Turing que tengan varias cintas infinitas), divididas en celdas, y dispositivo de control(también llamado cabeza de lectura-escritura(GZCH)), capaz de estar en uno de conjunto de estados. El número de estados posibles del dispositivo de control es finito y está especificado con precisión.

El dispositivo de control puede moverse hacia la izquierda y hacia la derecha a lo largo de la cinta, leer y escribir caracteres de algún alfabeto finito en celdas. Destaca especial vacío un símbolo que llena todas las celdas de la cinta, excepto aquellas (el número final) en las que están escritos los datos de entrada.

El dispositivo de control funciona según reglas de transición, que representan el algoritmo, realizable esta máquina de Turing. Cada regla de transición le indica a la máquina, dependiendo del estado actual y del símbolo observado en la celda actual, que escriba un nuevo símbolo en esta celda, pase a un nuevo estado y mueva una celda hacia la izquierda o hacia la derecha. Algunos estados de la máquina de Turing pueden etiquetarse como Terminal, y pasar a cualquiera de ellos significa el final del trabajo, deteniendo el algoritmo.

Una máquina de Turing se llama determinista, si cada combinación de estado y símbolo de cinta en la tabla corresponde como máximo a una regla. Si hay un par "símbolo de cinta - estado" para el cual hay 2 o más instrucciones, dicha máquina de Turing se llama no determinista.

Descripción de la máquina de Turing[

Una máquina de Turing específica se define enumerando los elementos del conjunto de letras del alfabeto A, el conjunto de estados Q y el conjunto de reglas mediante las cuales opera la máquina. Tienen la forma: q i a j →q i1 a j1 d k (si la cabeza está en el estado q i, y la letra a j está escrita en la celda observada, entonces la cabeza pasa al estado q i1, a j1 está escrita en la celda en lugar de una j, la cabeza hace un movimiento d k, que tiene tres opciones: una celda a la izquierda (L), una celda a la derecha (R), permanecer en el lugar (N)). Para cada configuración posible hay exactamente una regla (para una máquina de Turing no determinista puede haber más reglas). No existen reglas sólo para el estado final, una vez en el que el coche se detiene. Además, debe especificar los estados final e inicial, la configuración inicial en la cinta y la ubicación del cabezal de la máquina.

Ejemplo de una máquina de Turing[

Pongamos un ejemplo de MT para multiplicar números en el sistema numérico unario. La entrada de la regla “q i a j →q i1 a j1 R/L/N” debe entenderse de la siguiente manera: q i es el estado en el que se ejecuta esta regla, a j son los datos de la celda en la que se encuentra la cabeza, q i1 es el estado al que ir, a j1 - lo que hay que escribir en la celda, R/L/N - comando para moverse.

Arquitectura informática de John von Neumann

Arquitectura von Neumann- un principio bien conocido de almacenamiento conjunto de comandos y datos en la memoria de la computadora. A los sistemas informáticos de este tipo se les suele denominar “máquinas de von Neumann”, pero la correspondencia de estos conceptos no siempre es inequívoca. En general, cuando la gente habla de arquitectura von Neumann, se refiere al principio de almacenar datos e instrucciones en una memoria.

Principios de von Neumann

Los principios de von Neumann[

El principio de homogeneidad de la memoria.

Los comandos y los datos se almacenan en la misma memoria y externamente no se pueden distinguir en la memoria. Sólo pueden reconocerse por el método de uso; es decir, el mismo valor en una celda de memoria se puede utilizar como dato, como comando y como dirección, dependiendo únicamente de la forma en que se accede a él. Esto le permite realizar las mismas operaciones con comandos que con números y, en consecuencia, abre una serie de posibilidades. Así, cambiando cíclicamente la parte de dirección del comando, es posible acceder a elementos sucesivos de la matriz de datos. Esta técnica se llama modificación de comandos y no se recomienda desde el punto de vista de la programación moderna. Más útil es otra consecuencia del principio de homogeneidad, cuando las instrucciones de un programa se pueden obtener como resultado de la ejecución de otro programa. Esta posibilidad subyace a la traducción: la traducción del texto del programa desde un lenguaje de alto nivel al lenguaje de una computadora específica.

Principio de focalización

Estructuralmente, la memoria principal consta de celdas numeradas y cualquier celda está disponible para el procesador en cualquier momento. Los códigos binarios de comandos y datos se dividen en unidades de información llamadas palabras y se almacenan en celdas de memoria, y para acceder a ellos se utilizan los números de las celdas correspondientes: direcciones.

Principio de control del programa

Todos los cálculos previstos por el algoritmo para resolver el problema deben presentarse en forma de un programa que consta de una secuencia de palabras de control: comandos. Cada comando prescribe alguna operación de un conjunto de operaciones implementadas por la computadora. Los comandos del programa se almacenan en celdas de memoria secuenciales de la computadora y se ejecutan en una secuencia natural, es decir, en el orden de su posición en el programa. Si es necesario, utilizando comandos especiales, esta secuencia se puede cambiar. La decisión de cambiar el orden de ejecución de los comandos del programa se toma basándose en un análisis de los resultados de cálculos anteriores o de forma incondicional.

Tipos de procesador

Microprocesador- este es un dispositivo que es uno o más circuitos integrados grandes (LSI) que realizan las funciones de un procesador de computadora. Un dispositivo informático clásico consta de una unidad aritmética (AU), un dispositivo de control (CU), un dispositivo de almacenamiento (SU ) y un dispositivo de entrada-salida (E/S) ).

IntelCeleron 400 Socket 370 en una caja de plástico PPGA, vista superior.

Hay procesadores de varias arquitecturas.

CISC(ing. ComplexInstructionSetComputing) es un concepto de diseño de procesador que se caracteriza por el siguiente conjunto de propiedades:

· una gran cantidad de comandos de diferente formato y longitud;

· introducción de un gran número de modos de direccionamiento diferentes;

· tiene codificación de instrucciones compleja.

Un procesador CISC tiene que lidiar con instrucciones más complejas de longitud desigual. Una única instrucción CISC se puede ejecutar más rápido, pero procesar varias instrucciones CISC en paralelo es más difícil.

Facilitar la depuración de programas en ensamblador implica saturar la unidad del microprocesador con nodos. Para mejorar el rendimiento, se debe aumentar la frecuencia del reloj y el grado de integración, lo que requiere una tecnología mejorada y, como resultado, una producción más cara.

Ventajas de la arquitectura CISC[espectáculo]

Desventajas de la arquitectura CISC[espectáculo]

RISC(Computación con conjunto de instrucciones reducido). Procesador con un conjunto de instrucciones reducido. El sistema de mando está simplificado. Todos los comandos tienen el mismo formato con codificación simple. Se accede a la memoria mediante comandos de carga y escritura; los comandos restantes son del tipo registro-registro. El comando que ingresa a la CPU ya está dividido en campos y no requiere descifrado adicional.

Parte del cristal se libera para dar cabida a componentes adicionales. El grado de integración es menor que en la variante arquitectónica anterior, por lo que se permiten velocidades de reloj más bajas para un alto rendimiento. El comando satura menos la RAM, la CPU es más barata. Estas arquitecturas no son compatibles con el software. Depurar programas RISC es más difícil. Esta tecnología se puede implementar en software compatible con la tecnología CISC (por ejemplo, tecnología superescalar).

Debido a que las instrucciones RISC son simples, se necesitan menos puertas lógicas para ejecutarlas, lo que en última instancia reduce el costo del procesador. Pero la mayor parte del software actual está escrito y compilado específicamente para procesadores Intel CISC. Para utilizar la arquitectura RISC, los programas actuales deben recompilarse y, en ocasiones, reescribirse.

Frecuencia de reloj

La frecuencia del reloj es un indicador de la velocidad a la que el procesador central ejecuta los comandos.
El tacto es el período de tiempo necesario para realizar una operación elemental.

En el pasado reciente, la velocidad de reloj de un procesador central se identificaba directamente con su rendimiento, es decir, cuanto mayor es la velocidad de reloj de la CPU, más productiva es. En la práctica, tenemos una situación en la que procesadores con diferentes frecuencias tienen el mismo rendimiento, porque pueden ejecutar una cantidad diferente de instrucciones en un ciclo de reloj (dependiendo del diseño del núcleo, el ancho de banda del bus, la memoria caché).

La velocidad del reloj del procesador es proporcional a la frecuencia del bus del sistema ( vea abajo).

Profundidad de bits

La capacidad del procesador es un valor que determina la cantidad de información que el procesador central es capaz de procesar en un ciclo de reloj.

Por ejemplo, si el procesador es de 16 bits, esto significa que es capaz de procesar 16 bits de información en un ciclo de reloj.

Creo que todo el mundo entiende que cuanto mayor sea la profundidad de bits del procesador, mayores volúmenes de información podrá procesar.

Normalmente, cuanto mayor sea la capacidad del procesador, mayor será su rendimiento.

Actualmente se utilizan procesadores de 32 y 64 bits. El tamaño del procesador no significa que esté obligado a ejecutar comandos con el mismo tamaño de bits.

Memoria caché

En primer lugar, respondamos la pregunta: ¿qué es la memoria caché?

La memoria caché es una memoria de computadora de alta velocidad diseñada para el almacenamiento temporal de información (código de programas ejecutables y datos) que necesita el procesador central.

¿Qué datos se almacenan en la memoria caché?

Utilizado con mayor frecuencia.

¿Cuál es el propósito de la memoria caché?

El hecho es que el rendimiento de la RAM es mucho menor en comparación con el rendimiento de la CPU. Resulta que el procesador está esperando que lleguen datos de la RAM, lo que reduce el rendimiento del procesador y, por tanto, el rendimiento de todo el sistema. La memoria caché reduce la latencia del procesador al almacenar datos y códigos de programas ejecutables a los que el procesador accede con mayor frecuencia (la diferencia entre la memoria caché y la RAM de la computadora es que la velocidad de la memoria caché es decenas de veces mayor).

La memoria caché, como la memoria normal, tiene capacidad. Cuanto mayor sea la capacidad de la memoria caché, mayores volúmenes de datos podrá manejar.

Hay tres niveles de memoria caché: memoria caché primero (L1), segundo (L2) y tercero (L3). Los dos primeros niveles se utilizan con mayor frecuencia en las computadoras modernas.

Echemos un vistazo más de cerca a los tres niveles de memoria caché.

Primer caché El nivel es la memoria más rápida y cara.

La caché L1 está ubicada en el mismo chip que el procesador y funciona a la frecuencia de la CPU (de ahí el rendimiento más rápido) y es utilizada directamente por el núcleo del procesador.

La capacidad de la caché de primer nivel es pequeña (debido a su elevado coste) y se mide en kilobytes (normalmente no más de 128 KB).

caché L2 Es una memoria de alta velocidad que realiza las mismas funciones que la caché L1. La diferencia entre L1 y L2 es que este último tiene menor velocidad pero mayor capacidad (de 128 KB a 12 MB), lo que resulta muy útil para realizar tareas que consumen muchos recursos.

caché L3 ubicado en la placa base. L3 es significativamente más lento que L1 y L2, pero más rápido que la RAM. Está claro que el volumen de L3 es mayor que el volumen de L1 y L2. La caché de nivel 3 se encuentra en ordenadores muy potentes.

Numero de nucleos

Las tecnologías modernas de fabricación de procesadores permiten colocar más de un núcleo en un paquete. La presencia de varios núcleos aumenta significativamente el rendimiento del procesador, pero esto no significa que la presencia norte Los núcleos proporcionan un mayor rendimiento en norte una vez. Además, el problema con los procesadores multinúcleo es que hoy en día hay relativamente pocos programas escritos teniendo en cuenta la presencia de varios núcleos en el procesador.

El procesador multinúcleo, en primer lugar, le permite implementar la función multitarea: distribuir el trabajo de las aplicaciones entre los núcleos del procesador. Esto significa que cada núcleo individual ejecuta su propia aplicación.

Estructura de la placa base

Antes de elegir una placa base, es necesario considerar al menos superficialmente su estructura. Aunque vale la pena señalar aquí que la ubicación de los enchufes y otras partes de la placa base no juega un papel especial.

Lo primero a lo que debes prestar atención es al zócalo del procesador. Este es un pequeño hueco cuadrado con un sujetador.

Para aquellos que están familiarizados con el término "overlocking" (overclocking de una computadora), deben prestar atención a la presencia de un radiador doble. Muchas veces las placas base no tienen doble disipador. Por tanto, para quienes pretendan hacer overclock en su ordenador en el futuro, es recomendable asegurarse de que este elemento esté presente en la placa.

Las ranuras PCI-Express alargadas están diseñadas para tarjetas de video, sintonizadores de TV, tarjetas de audio y de red. Las tarjetas de video requieren un gran ancho de banda y utilizan conectores PCI-Express X16. Para otros adaptadores, se utilizan conectores PCI-Express X1.

¡Consejos de expertos!Las ranuras PCI con diferentes anchos de banda tienen casi el mismo aspecto. Vale la pena mirar con especial atención los conectores y leer las etiquetas debajo de ellos para evitar decepciones repentinas en casa al instalar tarjetas de video.

Los conectores más pequeños están destinados a unidades de RAM. Suelen ser de color negro o azul.

El chipset de la placa suele estar oculto debajo del disipador de calor. Este elemento es responsable del funcionamiento conjunto del procesador y otras partes de la unidad del sistema.

Los pequeños conectores cuadrados en el borde de la placa se utilizan para conectar el disco duro. En el otro lado se encuentran conectores para dispositivos de entrada y salida (USB, ratón, teclado, etc.).

Fabricante

Muchas empresas producen placas base. Es casi imposible destacar lo mejor o lo peor de ellos. El pago de cualquier empresa puede considerarse de alta calidad. A menudo, incluso fabricantes desconocidos ofrecen buenos productos.

El secreto es que todas las placas están equipadas con conjuntos de chips de dos empresas: AMD e Intel. Además, las diferencias entre los conjuntos de chips son insignificantes y sólo influyen en la resolución de problemas altamente especializados.

Factor de forma

En el caso de las placas base, el tamaño importa. El factor de forma ATX estándar se encuentra en la mayoría de las computadoras domésticas. El gran tamaño y, en consecuencia, la presencia de una amplia gama de ranuras, permite mejorar las características básicas de la computadora.

La versión mATX más pequeña es menos común. Las posibilidades de mejora son limitadas.

También está el mITX. Este factor de forma se encuentra en las computadoras de oficina económicas. Mejorar el rendimiento es imposible o no tiene sentido.

A menudo, los procesadores y las placas se venden como un conjunto. Sin embargo, si el procesador se compró anteriormente, es importante asegurarse de que sea compatible con la placa. Al observar el zócalo, se puede determinar instantáneamente la compatibilidad del procesador y la placa base.

conjunto de chips

El vínculo de conexión de todos los componentes del sistema es el chipset. Los conjuntos de chips son fabricados por dos empresas: Intel y AMD. No hay mucha diferencia entre ellos. Al menos para el usuario medio.

Los conjuntos de chips estándar constan de un puente norte y sur. Los modelos Intel más nuevos constan únicamente del norte. Esto no se hizo con el propósito de ahorrar dinero. Este factor no reduce de ninguna manera el rendimiento del chipset.

Los chipsets Intel más modernos constan de un solo puente, ya que la mayoría de los controladores ahora se encuentran en el procesador, incluido el controlador de RAM DD3, PCI-Express 3.0 y algunos otros.

Los análogos de AMD se basan en un diseño tradicional de dos puentes. Por ejemplo, la serie 900 está equipada con un puente sur SB950 y un puente norte 990FX (990X, 970).

Al elegir un conjunto de chips, debe partir de las capacidades del puente norte. Northbridge 990FX puede admitir el funcionamiento simultáneo de 4 tarjetas de vídeo en modo CrossFire. En la mayoría de los casos, ese poder es excesivo. Pero para los fanáticos de los juegos pesados ​​​​o aquellos que trabajan con editores gráficos exigentes, este chipset será el más adecuado.

La versión ligeramente simplificada del 990X aún puede admitir dos tarjetas de video al mismo tiempo, pero el modelo 970 funciona exclusivamente con una tarjeta de video.

Diseño de la placa base

· subsistema de procesamiento de datos;

· subsistema de suministro de energía;

· bloques y unidades auxiliares (de servicio).

Los componentes principales del subsistema de procesamiento de datos de la placa base se muestran en la Fig. 1.3.14.

1 – zócalo del procesador; 2 – neumático delantero; 3 – puente norte; 4 – generador de reloj; 5 – bus de memoria; 6 – conectores de RAM; 7 – conectores IDE (ATA); 8 – conectores SATA; 9 – puente sur; 10 – conectores IEEE 1394; 11 – conectores USB; 12 – conector de red Ethernet; 13 – conectores de audio; 14 – autobús LPC; 15 – Súper controlador de E/S; 16 – puerto PS/2;

17 – puerto paralelo; 18 – puertos serie; 19 – Conector de disquete;

20 – BIOS; 21 – bus PCI; 22 – conectores PCI; 23 – conectores AGP o PCI Express;

24 – autobús interno; 25 – Autobús AGP/PCI Express; 26 – conector VGA

FPM (Modo de página rápida) es un tipo de memoria dinámica.
Su nombre corresponde al principio de funcionamiento, ya que el módulo permite un acceso más rápido a los datos que se encuentran en la misma página que los datos transferidos durante el ciclo anterior.
Estos módulos se utilizaron en la mayoría de las computadoras basadas en 486 y en los primeros sistemas basados ​​en Pentium alrededor de 1995.

Los módulos EDO (Extended Data Out) aparecieron en 1995 como un nuevo tipo de memoria para ordenadores con procesadores Pentium.
Esta es una versión modificada de FPM.
A diferencia de sus predecesores, EDO comienza a buscar el siguiente bloque de memoria al mismo tiempo que envía el bloque anterior a la CPU.

SDRAM (Synchronous DRAM) es un tipo de memoria de acceso aleatorio que funciona tan rápido que se puede sincronizar con la frecuencia del procesador, excluyendo los modos de espera.
Los microcircuitos se dividen en dos bloques de celdas, de modo que mientras se accede a un bit en un bloque, se realizan los preparativos para acceder a un bit en otro bloque.
Si el tiempo para acceder a la primera información fue de 60 ns, todos los intervalos posteriores se redujeron a 10 ns.
A partir de 1996, la mayoría de los chipsets Intel comenzaron a admitir este tipo de módulo de memoria, lo que lo hizo muy popular hasta 2001.

La SDRAM puede funcionar a 133 MHz, que es casi tres veces más rápida que FPM y dos veces más rápida que EDO.
La mayoría de las computadoras con procesadores Pentium y Celeron lanzadas en 1999 usaban este tipo de memoria.

DDR (Double Data Rate) fue un desarrollo de SDRAM.
Este tipo de módulo de memoria apareció por primera vez en el mercado en 2001.
La principal diferencia entre DDR y SDRAM es que en lugar de duplicar la velocidad del reloj para acelerar las cosas, estos módulos transfieren datos dos veces por ciclo de reloj.
Ahora bien, este es el estándar de memoria principal, pero ya está empezando a dar paso a DDR2.

DDR2 (Double Data Rate 2) es una variante más nueva de DDR que, en teoría, debería ser dos veces más rápida.
La memoria DDR2 apareció por primera vez en 2003 y los chipsets que la soportan aparecieron a mediados de 2004.
Esta memoria, al igual que DDR, transfiere dos conjuntos de datos por ciclo de reloj.
La principal diferencia entre DDR2 y DDR es la capacidad de funcionar a velocidades de reloj significativamente más altas, gracias a mejoras en el diseño.
Pero el esquema operativo modificado, que permite alcanzar altas frecuencias de reloj, al mismo tiempo aumenta los retrasos al trabajar con la memoria.

DDR3 SDRAM (memoria de acceso aleatorio dinámica síncrona de doble velocidad de datos, tercera generación) es un tipo de memoria de acceso aleatorio utilizada en informática como RAM y memoria de vídeo.
Reemplazó la memoria SDRAM DDR2.

DDR3 tiene una reducción del 40% en el consumo de energía en comparación con los módulos DDR2, lo que se debe al menor voltaje de suministro (1,5 V, en comparación con 1,8 V para DDR2 y 2,5 V para DDR) de las celdas de memoria.
La reducción del voltaje de suministro se logra mediante el uso de una tecnología de proceso de 90 nm (inicialmente, luego 65, 50, 40 nm) en la producción de microcircuitos y el uso de transistores de doble puerta (que ayudan a reducir las corrientes de fuga). .

Los DIMM con memoria DDR3 no son compatibles mecánicamente con los mismos módulos de memoria DDR2 (la clave está ubicada en una ubicación diferente), por lo que DDR2 no se puede instalar en ranuras DDR3 (esto se hace para evitar la instalación errónea de algunos módulos en lugar de otros; estos Los tipos de memoria no son los mismos según los parámetros eléctricos).

RAMBUS (RIMM)

RAMBUS (RIMM) es un tipo de memoria que apareció en el mercado en 1999.
Se basa en la DRAM tradicional pero con una arquitectura radicalmente cambiada.
El diseño RAMBUS hace que el acceso a la memoria sea más inteligente, permitiendo el acceso previo a los datos mientras descarga ligeramente la CPU.
La idea principal utilizada en estos módulos de memoria es recibir datos en paquetes pequeños pero a una velocidad de reloj muy alta.
Por ejemplo, SDRAM puede transferir 64 bits de información a 100 MHz y RAMBUS puede transferir 16 bits a 800 MHz.
Estos módulos no tuvieron éxito porque Intel tuvo muchos problemas con su implementación.
Los módulos RDRAM aparecieron en las consolas de juegos Sony Playstation 2 y Nintendo 64.

RAM significa Memoria de acceso aleatorio: memoria a la que se accede por dirección. Las direcciones a las que se accede secuencialmente pueden tomar cualquier valor, por lo que se puede acceder a cualquier dirección (o "celda") de forma independiente.

La memoria estadística es una memoria construida a partir de conmutadores estáticos. Almacena información mientras haya energía. Normalmente, se requieren al menos seis transistores para almacenar un bit en un circuito SRAM. SRAM se usa en sistemas pequeños (hasta varios cientos de KB de RAM) y se usa donde la velocidad de acceso es crítica (como el caché dentro de los procesadores o en las placas base).

La memoria dinámica (DRAM) surgió a principios de los años 70. Se basa en elementos capacitivos. Podemos pensar en la DRAM como una serie de condensadores controlados por transistores de conmutación. Sólo se necesita un "transistor condensador" para almacenar un bit, por lo que la DRAM tiene más capacidad que la SRAM (y es más barata).
La DRAM está organizada como una matriz rectangular de celdas. Para acceder a una celda, debemos seleccionar la fila y columna en la que se encuentra esa celda. Normalmente, esto se implementa de tal manera que la parte superior de la dirección apunte a una fila y la parte inferior de la dirección apunte a una celda de la fila ("columna"). Históricamente (debido a las bajas velocidades y los pequeños paquetes IC a principios de los años 70), la dirección se suministraba al chip DRAM en dos fases: una dirección de fila con una dirección de columna en las mismas líneas. Primero, el chip recibe la dirección de fila y luego Después de unos nanosegundos, la dirección de la columna se transmite a la misma línea. El chip lee los datos y los transmite a la salida. Durante el ciclo de escritura, el chip recibe los datos junto con la dirección de la columna. Se utilizan varias líneas de control para controlan el chip Señales RAS (Row Address Strobe) que transmiten la dirección de la fila y también activan todo el chip Señales CAS (Column Address Strobe) que transmiten la dirección de la columna WE (Write Enable) indicando que el acceso realizado es un acceso de escritura OE ( Habilitar salida) abre los buffers utilizados para transferir datos desde el chip de memoria al “host” (procesador).
DRAM FP

Dado que cada acceso a la DRAM clásica requiere la transferencia de dos direcciones, era demasiado lento para máquinas de 25 MHz. La DRAM FP (Fast Page) es una variante de la DRAM clásica en la que no es necesario transferir la dirección de fila en cada ciclo de acceso. Mientras la línea RAS esté activa, la fila permanece seleccionada y se pueden seleccionar celdas individuales de esa fila pasando solo la dirección de la columna. Entonces, aunque la celda de memoria sigue siendo la misma, el tiempo de acceso es menor porque en la mayoría de los casos solo se necesita una fase de transferencia de dirección.

La DRAM EDO (salida de datos extendida) es una variante de la DRAM FP. En FP DRAM, la dirección de la columna debe permanecer correcta durante todo el período de transferencia de datos. Los buffers de datos se activan solo durante el ciclo de transmisión de direcciones de columna, mediante la señal de nivel de actividad de la señal CAS. Los datos deben leerse del bus de datos de la memoria antes de recibir la nueva dirección de columna en el chip. La memoria EDO almacena datos en búferes de salida después de que la señal CAS vuelve al estado inactivo y se elimina la dirección de la columna. La dirección de la siguiente columna se puede transmitir en paralelo con la lectura de los datos. Esto proporciona la posibilidad de utilizar coincidencias parciales al leer. Si bien las celdas de memoria EDO RAM tienen la misma velocidad que FP DRAM, el acceso secuencial puede ser más rápido. Entonces EDO debería ser algo más rápido que FP, especialmente para acceso masivo (como en aplicaciones gráficas).

La RAM de vídeo puede basarse en cualquiera de las arquitecturas DRAM enumeradas anteriormente. Además del mecanismo de acceso "normal" que se describe a continuación, la VRAM tiene uno o dos puertos serie especiales. A la VRAM a menudo se la denomina memoria de doble o triple puerto. Los puertos serie contienen registros que pueden almacenar el contenido de una serie completa. Es posible transferir datos de una fila completa de una matriz de memoria a un registro (o viceversa) en un único ciclo de acceso. Luego, los datos se pueden leer o escribir en el registro en serie en fragmentos de cualquier longitud. Debido a que un registro está formado por celdas estáticas y rápidas, el acceso a él es muy rápido, generalmente varias veces más rápido que una matriz de memoria. En la mayoría de las aplicaciones típicas, la VRAM se utiliza como búfer de memoria de pantalla. El procesador utiliza el puerto paralelo (interfaz estándar) y el puerto serie se utiliza para transmitir datos sobre puntos en la pantalla (o leer datos de una fuente de video).

WRAM es una arquitectura de memoria propietaria desarrollada por Matrox y (quién más, déjame recordar... - ¿Samsung?, ¿MoSys?...). Es similar a la VRAM, pero permite un acceso más rápido por parte del host. WRAM se utilizó en las tarjetas gráficas Millenium y Millenium II de Matrox (pero no en la moderna Millenium G200).

SDRAM es un rediseño completo de DRAM, introducido en los años 90. "S" significa Síncrono, ya que SDRAM implementa una interfaz completamente síncrona (y por lo tanto muy rápida). Dentro de SDRAM contiene (generalmente dos) matrices DRAM. Cada matriz tiene su propia propio registro de página, que es (un poco) como el registro de acceso en serie en VRAM. La SDRAM funciona de manera mucho más inteligente que la DRAM normal. Todo el circuito está sincronizado con una señal de reloj externa. En cada tic del reloj, el chip recibe y ejecuta un comando transmitido a lo largo de las líneas de comando. Los nombres de la línea de comando siguen siendo los mismos que en los chips DRAM clásicos, pero sus funciones solo son similares a las originales. Hay comandos para transferir datos entre la matriz de memoria y los registros de página, y para acceder a los datos en los registros de página. El acceso a un registro de página es muy rápido: las SDRAM modernas pueden transferir una nueva palabra de datos cada 6 a 10 ns.

La RAM de gráficos síncronos es una variante de SDRAM diseñada para aplicaciones de gráficos. La estructura del hardware es casi idéntica, por lo que en la mayoría de los casos podemos cambiar SDRAM y SGRAM (consulte Tarjetas Matrox G200; algunas usan SD, otras SG). La diferencia está en las funciones que realiza el registro de página. El SG puede escribir múltiples ubicaciones en un solo ciclo (esto permite rellenos de color y limpieza de pantalla muy rápidos) y solo puede escribir unos pocos bits por palabra (los bits se seleccionan mediante una máscara de bits almacenada por el circuito de interfaz). Por tanto, SG es más rápido en aplicaciones gráficas, aunque no físicamente más rápido que SD en uso "normal". Los aceleradores de gráficos utilizan funciones adicionales de SG. Creo que las capacidades de limpieza de pantalla y Z-buffer en particular son muy útiles.

RAMBUS (RDRAM)

RAMBUS (marca registrada de RAMBUS, Inc.) comenzó a desarrollarse en los años 80, por lo que no es nuevo. Las tecnologías RAMBUS modernas combinan ideas antiguas pero muy buenas y las tecnologías de producción de memoria actuales. RAMBUS se basa en una idea simple: tomamos cualquier bien DRAM, construimos un búfer estático en el chip (como en VRAM y SGRAM) y proporcionamos una interfaz especial configurable electrónicamente que opera a 250..400 MHz. La interfaz es al menos dos veces más rápida que la utilizada en SDRAM, y mientras El tiempo de acceso aleatorio suele ser más lento, el acceso secuencial es muy, muy, muy rápido. Recuerde que cuando se introdujeron las RDRAM de 250 MHz, la mayoría de las DRAM operaban en frecuencias de 12 a 25 MHz. La RDRAM requiere una interfaz especial y una ubicación física muy cuidadosa en La mayoría de los chips RDRAM se ven muy diferentes de otras DRAM: todos tienen todas las líneas de señal en un lado del paquete (por lo que tienen la misma longitud) y solo 4 líneas de alimentación en el otro lado. Las RDRAM se utilizan en tarjetas gráficas basadas en chips Cirrus 546x. Pronto veremos RDRAM utilizadas como memoria principal en las PC.

Dispositivo de disco duro.

El disco duro contiene un conjunto de placas, que suelen ser discos metálicos, recubiertas con un material magnético: un plato (óxido de ferrita gamma, ferrita de bario, óxido de cromo...) y conectadas entre sí mediante un husillo (eje).

Los propios discos (de aproximadamente 2 mm de espesor) están hechos de aluminio, latón, cerámica o vidrio. (ver foto)

Ambas superficies de los discos se utilizan para grabar. Se utilizan de 4 a 9 platos. El eje gira a una velocidad alta y constante (3600-7200 rpm)

La rotación de los discos y el movimiento radical de los cabezales se realiza mediante 2 motores eléctricos.

Los datos se escriben o leen utilizando cabezales de escritura/lectura, uno en cada superficie del disco. El número de cabezales es igual al número de superficies de trabajo de todos los discos.

La información se registra en el disco en lugares estrictamente definidos: pistas concéntricas (pistas). Las pistas están divididas en sectores. Un sector contiene 512 bytes de información.

El intercambio de datos entre RAM y NMD se realiza de forma secuencial mediante un número entero (clúster). Clúster - cadenas de sectores secuenciales (1,2,3,4,…)

Un motor especial, utilizando un soporte, posiciona el cabezal de lectura/escritura sobre una pista determinada (lo mueve en dirección radial).

Cuando se gira el disco, el cabezal se ubica sobre el sector deseado. Obviamente, todos los cabezales se mueven simultáneamente y leen información; los cabezales de datos se mueven simultáneamente y leen información de pistas idénticas en diferentes unidades.

Las pistas de disco duro con el mismo número de serie en diferentes discos duros se denominan cilindro.

Los cabezales de lectura y escritura se mueven a lo largo de la superficie del plato. Cuanto más cerca esté el cabezal de la superficie del disco sin tocarlo, mayor será la densidad de grabación permitida. .

Interfaces de disco duro.

IDE (ATA – Advanced Technology Attachment) es una interfaz paralela para conectar unidades, por lo que se cambió (con salida SATA) a PATA (Parallel ATA). Anteriormente se utilizaba para conectar discos duros, pero fue suplantada por la interfaz SATA. Actualmente se utiliza para conectar unidades ópticas.

SATA (Serial ATA): interfaz serie para intercambio de datos con unidades. Para la conexión se utiliza un conector de 8 pines. Como en el caso de PATA, está obsoleto y se utiliza únicamente para trabajar con unidades ópticas. El estándar SATA (SATA150) proporcionó un rendimiento de 150 MB/s (1,2 Gbit/s).

SATA2 (SATA300). El estándar SATA 2 duplicó el rendimiento, hasta 300 MB/s (2,4 Gbit/s), y permite el funcionamiento a 3 GHz. SATA estándar y SATA 2 son compatibles entre sí, sin embargo, para algunos modelos es necesario configurar manualmente los modos reorganizando los puentes.

SATA 3, aunque según las especificaciones lo correcto es llamarlo SATA 6Gb/s. Este estándar duplicó la velocidad de transferencia de datos a 6 Gbit/s (600 MB/s). Otras innovaciones positivas incluyen la función de control del programa NCQ y comandos para la transferencia continua de datos para un proceso de alta prioridad. Aunque la interfaz se introdujo en 2009, todavía no es muy popular entre los fabricantes y no se encuentra a menudo en las tiendas. Además de los discos duros, este estándar se utiliza en los SSD (unidades de estado sólido). Vale la pena señalar que, en la práctica, el ancho de banda de las interfaces SATA no difiere en la velocidad de transferencia de datos. En la práctica, la velocidad de escritura y lectura de discos no supera los 100 MB/s. Aumentar el rendimiento solo afecta el ancho de banda entre el controlador y la memoria caché de la unidad.

SCSI (Small Computer System Interface): un estándar utilizado en servidores donde se requiere una mayor velocidad de transferencia de datos.

SAS (Serial Attached SCSI) es una generación que reemplazó al estándar SCSI, utilizando transmisión de datos en serie. Al igual que SCSI, se utiliza en estaciones de trabajo. Totalmente compatible con la interfaz SATA.

CF (Compact Flash): interfaz para conectar tarjetas de memoria, así como discos duros de 1,0 pulgadas. Existen 2 estándares: Compact Flash Tipo I y Compact Flash Tipo II, la diferencia está en el grosor.

FireWire es una interfaz alternativa al USB 2.0, más lento. Se utiliza para conectar discos duros portátiles. Admite velocidades de hasta 400 Mb/s, pero la velocidad física es inferior a la de los normales. Al leer y escribir, el umbral máximo es 40 MB/s.

Tipos de tarjetas de video

Las computadoras modernas (portátiles) están disponibles con varios tipos de tarjetas de video, que afectan directamente el rendimiento de los programas de gráficos, la reproducción de video, etc.

Actualmente se utilizan 3 tipos de adaptadores que se pueden combinar.

Echemos un vistazo más de cerca a los tipos de tarjetas de video:

  • integrado;
  • discreto;
  • híbrido;
  • dos discretos;
  • SLI híbrido.

Tarjeta gráfica integrada- Esta es una opción económica. No tiene memoria de video ni procesador gráfico. Con la ayuda del chipset, los gráficos son procesados ​​​​por el procesador central y se utiliza RAM en lugar de memoria de video. Un sistema de dispositivo de este tipo reduce significativamente el rendimiento de la computadora en general y del procesamiento gráfico en particular.

A menudo se utiliza en configuraciones económicas de PC o portátiles. Le permite trabajar con aplicaciones de Office, ver y editar fotos y videos, pero es imposible jugar juegos modernos. Solo están disponibles opciones heredadas con requisitos mínimos del sistema.

John von Neumann ya a la edad de ocho años conocía los conceptos básicos de las matemáticas superiores y varios idiomas extranjeros y clásicos. Después de graduarse de la Universidad de Budapest en 1926, von Neumann enseñó en Alemania y en 1930 emigró a los Estados Unidos y se convirtió en miembro del Instituto de Estudios Avanzados de Princeton.

En 1944, von Neumann y el economista O. Morgenstern escribieron el libro "Teoría de juegos y comportamiento económico". Este libro contiene no sólo la teoría matemática de los juegos, sino también sus aplicaciones a las ciencias económicas, militares y otras. John von Neumann fue asignado al grupo de desarrollo de ENIAC como consultor en los problemas matemáticos que encontró el grupo.

En 1946, junto con G. Goldstein y A. Burks, escribió y publicó el informe "Discusión preliminar sobre el diseño lógico de una computadora electrónica". Dado que el nombre de von Neumann como físico y matemático destacado ya era bien conocido en amplios círculos científicos, todas las declaraciones contenidas en el informe le fueron atribuidas. Además, la arquitectura de las dos primeras generaciones de computadoras con ejecución secuencial de instrucciones en un programa se denominó "arquitectura de computadora von Neumann".

1. Principio de control del programa

Este principio garantiza la automatización de los procesos informáticos en una computadora.

Un programa consta de un conjunto de comandos que el procesador ejecuta automáticamente uno tras otro en una secuencia determinada. Un programa se recupera de la memoria mediante un contador de programa. Este registro del procesador aumenta secuencialmente la dirección de la siguiente instrucción almacenada en él por la longitud de la instrucción. Dado que los comandos del programa se encuentran en la memoria uno tras otro, se organiza una cadena de comandos a partir de celdas de memoria ubicadas secuencialmente. Si después de ejecutar un comando es necesario pasar no al siguiente, sino a otro, se utilizan comandos de salto condicionales o incondicionales, que ingresan en el contador de comandos el número de la celda de memoria que contiene el siguiente comando. La recuperación de comandos de la memoria se detiene después de alcanzar y ejecutar el comando "detener". Así, el procesador ejecuta el programa automáticamente, sin intervención humana.


2. El principio de homogeneidad de la memoria.

La ausencia de una diferencia fundamental entre el programa y los datos hizo posible que la computadora formara un programa por sí misma de acuerdo con el resultado de los cálculos.

Los programas y los datos se almacenan en la misma memoria. Por lo tanto, la computadora no distingue entre lo que está almacenado en una determinada celda de memoria: un número, texto o comando. Puede realizar las mismas acciones con comandos que con datos. Esto abre todo un abanico de posibilidades. Por ejemplo, un programa también se puede procesar durante su ejecución, lo que permite establecer reglas para obtener algunas de sus partes en el propio programa (así se organiza la ejecución de ciclos y subrutinas en el programa). Además, los comandos de un programa se pueden obtener como resultado de la ejecución de otro programa. Los métodos de traducción se basan en este principio: traducir el texto del programa desde un lenguaje de programación de alto nivel al lenguaje de una máquina específica.

3. Principio de focalización

Estructuralmente, la memoria principal consta de celdas renumeradas. Cualquier celda está disponible para el procesador en cualquier momento. Esto implica la capacidad de nombrar áreas de memoria para que posteriormente se pueda acceder o cambiar los valores almacenados en ellas durante la ejecución del programa utilizando los nombres asignados.

Von Neumann describió cómo debería ser una computadora para que sea una herramienta universal y conveniente para procesar información. En primer lugar debe contar con los siguientes dispositivos:

    Un dispositivo aritmético-lógico que realiza operaciones aritméticas y lógicas. Un dispositivo de control que organiza el proceso de ejecución de programas. Un dispositivo de almacenamiento para almacenar programas y datos. Dispositivos externos para entrada/salida de información.

Las computadoras construidas según estos principios se clasifican como computadoras von Neumann.

Hoy en día, la gran mayoría de ordenadores, incluido el IBM PC, son compatibles. Pero también existen sistemas informáticos con una arquitectura diferente, por ejemplo, sistemas de computación paralela.

Principio modular de la construcción de computadoras.

La arquitectura informática se refiere a su organización lógica, estructura y recursos, es decir, los medios de un sistema informático. La arquitectura de las PC modernas se basa en el principio modular troncal.

El principio modular permite al consumidor elegir la configuración informática que necesita y, si es necesario, actualizarla. La organización modular del sistema se basa en el principio de intercambio de información troncal (bus). Un bus o bus de sistema es un conjunto de líneas electrónicas que unen el procesador, la memoria y los dispositivos periféricos para el direccionamiento de la memoria, la transferencia de datos y las señales de servicio.

La información se intercambia entre dispositivos informáticos individuales a través de tres buses multibit que conectan todos los módulos: el bus de datos, el bus de direcciones y el bus de control.

La conexión de módulos de computadora individuales al bus a nivel físico se realiza mediante controladores y a nivel de software, mediante controladores. El controlador recibe la señal del procesador y la descifra para que el dispositivo correspondiente pueda recibir la señal y responder a ella. El procesador no es responsable de la respuesta del dispositivo; esta es una función del controlador. Por lo tanto, los dispositivos informáticos externos son reemplazables y el conjunto de dichos módulos es arbitrario.


El ancho del bus de datos está determinado por la profundidad de bits del procesador, es decir, la cantidad de bits binarios que el procesador procesa en un ciclo de reloj.

Los datos en el bus de datos se pueden transmitir tanto desde el procesador a cualquier dispositivo como en la dirección opuesta, es decir, el bus de datos es bidireccional. Los principales modos de funcionamiento del procesador que utiliza el bus de datos incluyen los siguientes: escribir/leer datos de RAM y dispositivos de almacenamiento externos, leer datos de dispositivos de entrada, enviar datos a dispositivos de salida.

La elección de un suscriptor para el intercambio de datos la realiza el procesador, que genera el código de dirección del dispositivo, y para la RAM, el código de dirección de la celda de memoria. El código de dirección se transmite a lo largo del bus de direcciones y las señales se transmiten en una dirección, desde el procesador a los dispositivos, es decir, este bus es unidireccional.

El bus de control transmite señales que determinan la naturaleza del intercambio de información y señales que sincronizan la interacción de los dispositivos que participan en el intercambio de información.

Los dispositivos externos se conectan a los buses a través de una interfaz. Se entiende por interfaz un conjunto de diversas características de un dispositivo periférico de PC que determina la organización del intercambio de información entre este y el procesador central. En caso de incompatibilidad de interfaces (por ejemplo, la interfaz del bus del sistema y la interfaz del disco duro), se utilizan controladores.

Para que los dispositivos incluidos en el ordenador puedan interactuar con el procesador central, los ordenadores compatibles con IBM disponen de un sistema de interrupción. El sistema de interrupción permite a la computadora pausar la actividad actual y cambiar a otras en respuesta a una solicitud, como presionar una tecla en el teclado. De hecho, por un lado, es deseable que la computadora esté ocupada con el trabajo que se le asigna y, por otro lado, es necesaria su respuesta instantánea a cualquier solicitud que requiera atención. Las interrupciones proporcionan una respuesta inmediata del sistema.

El progreso de la tecnología informática se está produciendo a pasos agigantados. Cada año aparecen nuevos procesadores, placas, unidades y otros dispositivos periféricos. El crecimiento de las capacidades potenciales de una PC y la aparición de componentes nuevos y más productivos inevitablemente hacen que desee actualizar su computadora. Sin embargo, es imposible apreciar plenamente los nuevos avances en la tecnología informática sin compararlos con los estándares existentes.

El desarrollo de cosas nuevas en el campo de las PC siempre se basa en estándares y principios antiguos. Por tanto, conocerlos es un factor fundamental a favor (o en contra) de elegir un nuevo sistema.

La computadora incluye los siguientes componentes.:

    Unidad Central de Procesamiento (CPU); Memoria RAM);
    dispositivos de almacenamiento;
    los dispositivos de entrada;
    dispositivos de salida;
    dispositivos de comunicación.

La primera máquina sumadora capaz de realizar cuatro operaciones aritméticas básicas fue la máquina sumadora del famoso científico y filósofo francés Blaise Pascal. El elemento principal era una rueda dentada, cuya invención se convirtió en sí misma en un acontecimiento clave en la historia de la tecnología informática. Me gustaría señalar que la evolución en el campo de la tecnología informática es desigual, espasmódica: los períodos de acumulación de fuerza son reemplazados por avances en el desarrollo, después de lo cual comienza un período de estabilización, durante el cual los resultados obtenidos se utilizan en la práctica y al mismo tiempo. Al mismo tiempo se acumulan conocimientos y fuerzas para el siguiente salto adelante. Después de cada revolución, el proceso de evolución alcanza un nivel nuevo y superior.

En 1671, el filósofo y matemático alemán Gustav Leibniz también creó una máquina sumadora basada en una rueda dentada de un diseño especial: la rueda dentada de Leibniz. La máquina sumadora de Leibniz, al igual que las máquinas sumadoras de sus predecesores, realizaba cuatro operaciones aritméticas básicas. Este período terminó y la humanidad, durante casi un siglo y medio, acumuló fuerzas y conocimientos para la siguiente ronda de evolución de la tecnología informática. Los siglos XVIII y XIX fueron una época en la que diversas ciencias, incluidas las matemáticas y la astronomía, se desarrollaron rápidamente. A menudo implicaban tareas que requerían cálculos que requerían mucho tiempo y mano de obra.

Otro personaje famoso en la historia de la informática fue el matemático inglés Charles Babbage. En 1823, Babbage comenzó a trabajar en una máquina para calcular polinomios, pero, lo que es más interesante, esta máquina, además de realizar cálculos directamente, debía producir resultados: imprimirlos en una placa negativa para impresión fotográfica. Estaba previsto que la máquina funcionara con una máquina de vapor. Debido a dificultades técnicas, Babbage no pudo completar su proyecto. Aquí, por primera vez, surgió la idea de utilizar algún dispositivo externo (periférico) para generar los resultados de los cálculos. Tenga en cuenta que otro científico, Scheutz, implementó la máquina concebida por Babbage en 1853 (resultó ser incluso más pequeña de lo planeado). Probablemente a Babbage le gustaba más el proceso creativo de buscar nuevas ideas que traducirlas en algo material. En 1834, describió los principios de funcionamiento de otra máquina, a la que llamó "analítica". Las dificultades técnicas nuevamente le impidieron realizar plenamente sus ideas. Babbage sólo pudo llevar la máquina a la etapa experimental. Pero es la idea el motor del progreso científico y tecnológico. La siguiente máquina de Charles Babbage fue la encarnación de las siguientes ideas:

Gestión del proceso de producción. La máquina controlaba el funcionamiento del telar, cambiando el patrón de la tela creada según la combinación de agujeros en una cinta de papel especial. Esta cinta se convirtió en la predecesora de los soportes de información que todos conocemos como tarjetas perforadas y cintas perforadas.

Programabilidad. La máquina también estaba controlada por una cinta de papel especial con agujeros. El orden de los agujeros determinaba los comandos y los datos procesados ​​por estos comandos. La máquina tenía un dispositivo aritmético y memoria. Los comandos de la máquina incluían incluso un comando de salto condicional, que cambiaba el curso de los cálculos en función de algunos resultados intermedios.

En el desarrollo de esta máquina participó la condesa Ada Augusta Lovelace, considerada la primera programadora del mundo.

Las ideas de Charles Babbage fueron desarrolladas y utilizadas por otros científicos. Así, en 1890, a principios del siglo XX, el estadounidense Herman Hollerith desarrolló una máquina que trabajaba con tablas de datos (¿el primer Excel?). La máquina estaba controlada por un programa de tarjetas perforadas. Se utilizó en el censo estadounidense de 1890. En 1896, Hollerith fundó la empresa que fue la predecesora de IBM Corporation. Con la muerte de Babbage se produjo otra ruptura en la evolución de la tecnología informática hasta los años 30 del siglo XX. Posteriormente, todo el desarrollo de la humanidad se volvió impensable sin las computadoras.

En 1938, el centro de desarrollo se trasladó brevemente de Estados Unidos a Alemania, donde Konrad Zuse creó una máquina que, a diferencia de sus predecesoras, no funcionaba con números decimales, sino binarios. Esta máquina también era mecánica, pero su indudable ventaja era que implementaba la idea de procesar datos en código binario. Continuando con su trabajo, Zuse creó en 1941 una máquina electromecánica, cuyo dispositivo aritmético se basaba en un relé. La máquina podría realizar operaciones de punto flotante.

En el extranjero, en Estados Unidos, durante este período también se estaba trabajando para crear máquinas electromecánicas similares. En 1944, Howard Aiken diseñó una máquina llamada Mark-1. Ella, como la máquina de Zuse, trabajaba con un relevo. Pero debido a que esta máquina fue claramente creada bajo la influencia del trabajo de Babbage, operaba con datos en forma decimal.

Naturalmente, debido a la gran proporción de piezas mecánicas, estas máquinas estaban condenadas al fracaso.

Cuatro generaciones de ordenadores

A finales de los años treinta del siglo XX, la necesidad de automatización de procesos informáticos complejos aumentó considerablemente. Esto fue facilitado por el rápido desarrollo de industrias como la fabricación de aviones, la física nuclear y otras. Desde 1945 hasta la actualidad, la tecnología informática ha pasado por 4 generaciones en su desarrollo:

Primera generación

La primera generación (1945-1954): computadoras de tubos de vacío. Estos son tiempos prehistóricos, la era del surgimiento de la tecnología informática. La mayoría de las máquinas de primera generación eran dispositivos experimentales y fueron construidas para probar ciertos principios teóricos. El peso y el tamaño de estos dinosaurios informáticos, que a menudo requerían edificios separados, se han convertido desde hace mucho tiempo en una leyenda.

A partir de 1943, un grupo de especialistas liderados por Howard Aitken, J. Mauchly y P. Eckert en Estados Unidos comenzaron a diseñar una computadora basada en tubos de vacío, en lugar de relés electromagnéticos. Esta máquina se llamaba ENIAC (Electronic Numeral Integrator And Computer) y funcionaba mil veces más rápido que la Mark-1. ENIAC contenía 18 mil tubos de vacío, ocupaba un área de 9x15 metros, pesaba 30 toneladas y consumía una potencia de 150 kilovatios. ENIAC también tenía un inconveniente importante: se controlaba mediante un panel de conexiones, no tenía memoria y, para configurar un programa, se necesitaban varias horas o incluso días para conectar los cables de la manera correcta. El peor de todos los defectos fue la terrible falta de fiabilidad de la computadora, ya que alrededor de una docena de tubos de vacío lograron fallar en un día de funcionamiento.

Para simplificar el proceso de configuración de programas, Mauchly y Eckert comenzaron a diseñar una nueva máquina que pudiera almacenar un programa en su memoria. En 1945, participó en el trabajo el famoso matemático John von Neumann, quien preparó un informe sobre esta máquina. En este informe, von Neumann formuló de forma clara y sencilla los principios generales del funcionamiento de los dispositivos informáticos universales, es decir, ordenadores. Esta fue la primera máquina operativa construida con tubos de vacío y se puso oficialmente en funcionamiento el 15 de febrero de 1946. Intentaron utilizar esta máquina para resolver algunos problemas preparados por von Neumann y relacionados con el proyecto de la bomba atómica. Luego fue transportada a Aberdeen Proving Ground, donde operó hasta 1955.

ENIAC se convirtió en el primer representante de la primera generación de computadoras. Cualquier clasificación es condicional, pero la mayoría de los expertos coincidieron en que las generaciones deben distinguirse en función de la base elemental sobre la que están construidas las máquinas. Así, la primera generación parece ser la de máquinas tubulares.

Es necesario señalar el enorme papel del matemático estadounidense von Neumann en el desarrollo de la tecnología de primera generación. Era necesario comprender las fortalezas y debilidades de ENIAC y hacer recomendaciones para desarrollos posteriores. El informe de von Neumann y sus colegas G. Goldstein y A. Burks (junio de 1946) formula claramente los requisitos para la estructura de las computadoras. Muchas de las disposiciones de este informe se denominaron principios de Von Neumann.

Los primeros proyectos de ordenadores domésticos fueron propuestos por S.A. Lebedev, B.I. Rameev en 1948 En 1949-51. según proyecto de S.A. Lebedev, se construyó MESM (pequeña máquina calculadora electrónica). El primer lanzamiento de prueba de un prototipo de la máquina tuvo lugar en noviembre de 1950 y la máquina se puso en funcionamiento en 1951. MESM trabajaba en un sistema binario, con un sistema de comando de tres direcciones, y el programa de cálculo se almacenaba en un dispositivo de almacenamiento operativo. La máquina de Lebedev con procesamiento de textos paralelo fue una solución fundamentalmente nueva. Fue uno de los primeros ordenadores del mundo y el primero del continente europeo con un programa almacenado.

La computadora de primera generación también incluye BESM-1 (gran máquina calculadora electrónica), cuyo desarrollo bajo la dirección de S.A. Lebedeva se completó en 1952, contenía 5 mil lámparas y funcionó sin fallas durante 10 horas. El rendimiento alcanzó las 10 mil operaciones por segundo (Apéndice 1).

Casi al mismo tiempo, se diseñó la computadora Strela (Apéndice 2) bajo el liderazgo de Yu.Ya. Bazilevsky, en 1953. fue puesto en producción. Posteriormente apareció la computadora Ural - 1 (Apéndice 3), que marcó el comienzo de una gran serie de máquinas Ural, desarrolladas y puestas en producción bajo la dirección de B.I. Rameva. En 1958 Se puso en producción en serie el ordenador M-20 de primera generación (velocidad de hasta 20 mil operaciones por segundo).

Las computadoras de primera generación tenían velocidades de varias decenas de miles de operaciones por segundo. Se utilizaron núcleos de ferrita como memoria interna y las ALU y las unidades de control se construyeron sobre tubos electrónicos. La velocidad del ordenador estaba determinada por un componente más lento, la memoria interna, y esto reducía el efecto general.

Las computadoras de primera generación estaban orientadas a realizar operaciones aritméticas. Al intentar adaptarlos a tareas de análisis, resultaron ineficaces.

Todavía no existían lenguajes de programación como tal y los programadores utilizaban instrucciones de máquina o ensambladores para codificar sus algoritmos. Esto complicó y retrasó el proceso de programación.

A finales de los años 50, las herramientas de programación estaban experimentando cambios fundamentales: se hizo una transición hacia la automatización de la programación utilizando lenguajes universales y bibliotecas de programas estándar. El uso de lenguas universales propició la aparición de los traductores.

Los programas se ejecutaron tarea por tarea, es decir. el operador tenía que monitorear el progreso de la tarea y, cuando llegaba al final, iniciar la siguiente tarea.

Segunda generación

En la segunda generación de computadoras (1955-1964), se utilizaron transistores en lugar de tubos de vacío, y como dispositivos de memoria comenzaron a utilizarse núcleos magnéticos y tambores magnéticos, ancestros lejanos de los discos duros modernos. Todo esto permitió reducir drásticamente el tamaño y el costo de las computadoras, que luego comenzaron a construirse para la venta por primera vez.

Pero los principales logros de esta época pertenecen al campo de los programas. En la segunda generación de ordenadores apareció por primera vez lo que ahora se llama sistema operativo. Al mismo tiempo, se desarrollaron los primeros lenguajes de alto nivel: Fortran, Algol, Cobol. Estas dos importantes mejoras hicieron que escribir programas de computadora fuera mucho más fácil y rápido; La programación, sin dejar de ser una ciencia, adquiere características de un oficio.

En consecuencia, se amplió el alcance de las aplicaciones informáticas. Ahora ya no eran sólo los científicos los que podían contar con el acceso a la tecnología informática; Se utilizaron computadoras en la planificación y la gestión, y algunas grandes empresas incluso computarizaron su contabilidad, anticipándose veinte años a la moda.

Los semiconductores se convirtieron en la base elemental de la segunda generación. Sin duda, los transistores pueden considerarse uno de los milagros más impresionantes del siglo XX.

En 1948 se concedió una patente para el descubrimiento del transistor a los estadounidenses D. Bardeen y W. Brattain, y ocho años después, ellos, junto con el teórico V. Shockley, se convirtieron en premios Nobel. Las velocidades de conmutación de los primeros elementos de transistores resultaron ser cientos de veces superiores a las de los elementos de tubo, así como su fiabilidad y eficiencia. Por primera vez, se empezó a utilizar ampliamente la memoria en núcleos de ferrita y películas magnéticas delgadas, y se probaron elementos inductivos (parámetros).

El primer ordenador de a bordo instalado en un cohete intercontinental, el Atlas, se puso en funcionamiento en Estados Unidos en 1955. La máquina utilizaba 20 mil transistores y diodos y consumía 4 kilovatios. En 1961, las computadoras terrestres de Barrow controlaban los vuelos espaciales de los cohetes Atlas y las máquinas de IBM controlaban el vuelo del astronauta Gordon Cooper. La computadora controló los vuelos de naves espaciales no tripuladas del tipo Ranger a la Luna en 1964, así como la nave espacial Mariner a Marte. Las computadoras soviéticas realizaban funciones similares.

En 1956, IBM desarrolló cabezales magnéticos flotantes sobre un colchón de aire. Su invención hizo posible crear un nuevo tipo de memoria: los dispositivos de almacenamiento en disco, cuya importancia se apreció plenamente en las décadas posteriores de desarrollo de la tecnología informática. Los primeros dispositivos de almacenamiento en disco aparecieron en las máquinas IBM-305 y RAMAC (Apéndice 4). Este último tenía un paquete compuesto por 50 discos metálicos recubiertos magnéticamente que giraban a una velocidad de 12.000 rpm. La superficie del disco contenía 100 pistas para grabar datos, cada una de las cuales contenía 10.000 caracteres.

Las primeras computadoras centrales con transistores producidas en serie se lanzaron en 1958 simultáneamente en Estados Unidos, Alemania y Japón.

Aparecen las primeras minicomputadoras (por ejemplo, PDP-8 (Apéndice 5)).

En la Unión Soviética, los primeros aparatos sin lámpara, “Setun”, “Razdan” y “Razdan-2”, se crearon en 1959-1961. En los años 60, los diseñadores soviéticos desarrollaron alrededor de 30 modelos de computadoras con transistores, la mayoría de los cuales comenzaron a producirse en masa. El más potente de ellos, el Minsk-32, realizó 65.000 operaciones por segundo. Aparecieron familias enteras de vehículos: “Ural”, “Minsk”, BESM.

El poseedor del récord entre las computadoras de segunda generación fue el BESM-6 (Apéndice 6), que tenía una velocidad de alrededor de un millón de operaciones por segundo, una de las más productivas del mundo. La arquitectura y muchas soluciones técnicas de esta computadora eran tan progresistas y adelantadas a su tiempo que se ha utilizado con éxito casi hasta nuestros días.

Especialmente para la automatización de cálculos de ingeniería en el Instituto de Cibernética de la Academia de Ciencias de la República Socialista Soviética de Ucrania bajo la dirección del académico V.M. Glushkov desarrolló las computadoras MIR (1966) y MIR-2 (1969). Una característica importante de la máquina MIR-2 fue el uso de una pantalla de televisión para el control visual de la información y un lápiz óptico, con el que era posible corregir los datos directamente en la pantalla.

La construcción de sistemas de este tipo, que incluyen alrededor de 100 mil elementos de conmutación, sería simplemente imposible si se utilizara la tecnología de lámparas. Así, la segunda generación nació en las profundidades de la primera, adoptando muchas de sus características. Sin embargo, a mediados de los años 60, el auge en el campo de la producción de transistores alcanzó su máximo: se produjo la saturación del mercado. El hecho es que el montaje de equipos electrónicos era un proceso lento y muy laborioso que no se prestaba bien a la mecanización y la automatización. Por tanto, están dadas las condiciones para una transición hacia una nueva tecnología que se adapte a la creciente complejidad de los circuitos eliminando las conexiones tradicionales entre sus elementos.

Tercera generación

Finalmente, en la tercera generación de computadoras (1965-1974), comenzaron a usarse por primera vez circuitos integrados: dispositivos completos y unidades de decenas y cientos de transistores, fabricados en un solo cristal semiconductor (lo que ahora se llama microcircuitos). Al mismo tiempo, apareció la memoria semiconductora, que todavía se utiliza en los ordenadores personales como RAM durante todo el día. La prioridad en la invención de los circuitos integrados, que se convirtieron en la base elemental de las computadoras de tercera generación, pertenece a los científicos estadounidenses D. Kilby y R. Noyce, quienes hicieron este descubrimiento de forma independiente. La producción en masa de circuitos integrados comenzó en 1962 y en 1964 comenzó rápidamente la transición de elementos discretos a integrados. El mencionado ENIAK, de 9x15 metros, en 1971 podría haberse montado sobre una placa de 1,5 centímetros cuadrados. Comenzó la transformación de la electrónica en microelectrónica.

Durante estos años, la producción de computadoras adquirió una escala industrial. IBM, que se había convertido en líder, fue la primera en implementar una familia de computadoras: una serie de computadoras que eran totalmente compatibles entre sí, desde las más pequeñas, del tamaño de un pequeño armario (nunca habían hecho nada más pequeño entonces), hasta los modelos más potentes y caros. La más extendida en aquellos años fue la familia System/360 de IBM, a partir de la cual se desarrolló la serie de ordenadores ES en la URSS. En 1973 se lanzó el primer modelo de computadora de la serie ES y, desde 1975, aparecieron los modelos ES-1012, ES-1032, ES-1033, ES-1022 y, posteriormente, el más potente ES-1060.

Como parte de la tercera generación, en los EE. UU. se construyó una máquina única "ILLIAK-4", que en su versión original estaba prevista para utilizar 256 dispositivos de procesamiento de datos fabricados en circuitos integrados monolíticos. El proyecto fue posteriormente modificado debido al coste bastante elevado (más de 16 millones de dólares). El número de procesadores tuvo que reducirse a 64 y también cambiarse a circuitos integrados con un bajo grado de integración. Una versión abreviada del proyecto se completó en 1972; la velocidad nominal del ILLIAC-4 era de 200 millones de operaciones por segundo. Durante casi un año, esta computadora mantuvo el récord de velocidad de computación.

A principios de los años 60 aparecieron las primeras minicomputadoras: computadoras pequeñas y de bajo consumo asequibles para pequeñas empresas o laboratorios. Las minicomputadoras representaron el primer paso hacia las computadoras personales, cuyos prototipos no se lanzaron hasta mediados de los años 70. La conocida familia de minicomputadoras PDP de Digital Equipment sirvió como prototipo para la serie de máquinas soviéticas SM.

Mientras tanto, el número de elementos y conexiones entre ellos que caben en un microcircuito crecía constantemente, y en los años 70 los circuitos integrados ya contenían miles de transistores. Esto hizo posible combinar la mayoría de los componentes de la computadora en una sola pieza pequeña, que es lo que hizo Intel en 1971, lanzando el primer microprocesador destinado a las calculadoras de escritorio que acababan de aparecer. Este invento estaba destinado a producir una verdadera revolución en la próxima década; después de todo, el microprocesador es el corazón y el alma de nuestra computadora personal.

Pero eso no es todo: verdaderamente, el cambio de los años 60 y 70 fue una época fatídica. En 1969 nació la primera red informática mundial, el embrión de lo que hoy llamamos Internet. Y en el mismo 1969, aparecieron simultáneamente el sistema operativo Unix y el lenguaje de programación C, lo que tuvo un gran impacto en el mundo del software y aún mantiene su posición de liderazgo.

Cuarta generación

Otro cambio en la base de elementos provocó un cambio de generaciones. En los años 70 se trabajó activamente en la creación de circuitos integrados grandes y ultragrandes (LSI y VLSI), que permitieron colocar decenas de miles de elementos en un solo chip. Esto resultó en una reducción significativa adicional en el tamaño y el costo de las computadoras. Trabajar con el software se ha vuelto más fácil de usar, lo que ha llevado a un aumento en el número de usuarios.

En principio, con tal grado de integración de elementos, fue posible intentar crear una computadora funcionalmente completa en un solo chip. Se hicieron los intentos oportunos, aunque la mayoría de ellos fueron recibidos con una sonrisa de incredulidad. Probablemente, habría menos de estas sonrisas si fuera posible prever que fue esta idea la que provocaría la extinción de los mainframes en apenas una década y media.

Sin embargo, a principios de los años 70, Intel lanzó el microprocesador (MP) 4004. Y si antes solo había tres direcciones en el mundo de la informática (supercomputadoras, mainframes y minicomputadoras), ahora se les agregó otra: el microprocesador. En general, se entiende por procesador una unidad funcional de una computadora diseñada para el procesamiento lógico y aritmético de información basado en el principio de control de microprogramas. Según la implementación del hardware, los procesadores se pueden dividir en microprocesadores (todas las funciones del procesador están completamente integradas) y procesadores con integración baja y media. Estructuralmente, esto se expresa en el hecho de que los microprocesadores implementan todas las funciones del procesador en un chip, mientras que otros tipos de procesadores las implementan conectando una gran cantidad de chips.

Así, el primer microprocesador 4004 fue creado por Intel a finales de los años 70. Era un dispositivo informático paralelo de 4 bits y sus capacidades eran muy limitadas. El 4004 podía realizar cuatro operaciones aritméticas básicas y al principio sólo se utilizaba en calculadoras de bolsillo. Posteriormente, su ámbito de aplicación se amplió para incluir el uso en varios sistemas de control (por ejemplo, para controlar los semáforos). Intel, habiendo previsto correctamente la promesa de los microprocesadores, continuó con un desarrollo intensivo y uno de sus proyectos finalmente condujo a un gran éxito, que predeterminó el camino futuro del desarrollo de la tecnología informática.

Este fue el proyecto para desarrollar el procesador de 8 bits 8080 (1974). Este microprocesador tenía un sistema de mando bastante desarrollado y era capaz de dividir números. Se utilizó para crear la computadora personal Altair, para la cual el joven Bill Gates escribió uno de sus primeros intérpretes de lenguaje BÁSICO. Probablemente, es a partir de este momento que debería contarse la quinta generación.

Quinta generación

La transición a las computadoras de quinta generación implicó una transición a nuevas arquitecturas destinadas a crear inteligencia artificial.

Se creía que la arquitectura informática de quinta generación contendría dos bloques principales. Uno de ellos es el propio ordenador, en el que la comunicación con el usuario se realiza mediante una unidad denominada “interfaz inteligente”. La tarea de la interfaz es comprender el texto escrito en lenguaje natural o voz y traducir el planteamiento del problema así planteado a un programa de trabajo.

Requisitos básicos para computadoras de quinta generación: Creación de una interfaz hombre-máquina desarrollada (reconocimiento de voz, reconocimiento de imágenes); Desarrollo de programación lógica para la creación de bases de conocimiento y sistemas de inteligencia artificial; Creación de nuevas tecnologías en la producción de equipos informáticos; Creación de nuevas arquitecturas informáticas y sistemas informáticos.

Las nuevas capacidades técnicas de la tecnología informática deberían haber ampliado la gama de tareas a resolver y permitir pasar a las tareas de creación de inteligencia artificial. Uno de los componentes necesarios para la creación de inteligencia artificial son las bases de conocimiento (bases de datos) en diversas áreas de la ciencia y la tecnología. Crear y utilizar bases de datos requiere sistemas informáticos de alta velocidad y una gran cantidad de memoria. Las computadoras de uso general son capaces de realizar cálculos de alta velocidad, pero no son adecuadas para realizar operaciones de comparación y clasificación de alta velocidad en grandes volúmenes de registros, generalmente almacenados en discos magnéticos. Para crear programas que llenan, actualizan y trabajan con bases de datos, se crearon lenguajes de programación lógicos y orientados a objetos especiales que brindan las mayores capacidades en comparación con los lenguajes de procedimiento convencionales. La estructura de estos lenguajes requiere una transición de la arquitectura informática tradicional de von Neumann a arquitecturas que tengan en cuenta los requisitos de las tareas de creación de inteligencia artificial.

La clase de supercomputadoras incluye computadoras que tienen el máximo rendimiento en el momento de su lanzamiento, o las llamadas computadoras de quinta generación.

Las primeras supercomputadoras aparecieron ya entre las computadoras de segunda generación (1955 - 1964, ver computadoras de segunda generación); fueron diseñadas para resolver problemas complejos que requerían cálculos de alta velocidad. Estos son LARC de UNIVAC, Stretch de IBM y CDC-6600 (familia CYBER) de Control Data Corporation, utilizaron métodos de procesamiento paralelo (aumentando el número de operaciones realizadas por unidad de tiempo), canalización de comandos (cuando durante la ejecución de un comando el segundo se lee de la memoria y se prepara para su ejecución) y procesamiento paralelo utilizando una estructura de procesador compleja que consta de una matriz de procesadores de datos y un procesador de control especial que distribuye tareas y controla el flujo de datos en el sistema. Las computadoras que ejecutan múltiples programas en paralelo utilizando múltiples microprocesadores se denominan sistemas multiprocesador. Hasta mediados de los años 80, la lista de los mayores fabricantes de supercomputadoras del mundo incluía a Sperry Univac y Burroughs. El primero es conocido, en particular, por sus mainframes UNIVAC-1108 y UNIVAC-1110, que se utilizaron ampliamente en universidades y organizaciones gubernamentales.

Tras la fusión de Sperry Univac y Burroughs, UNISYS combinada continuó brindando soporte a ambas líneas de mainframe manteniendo la compatibilidad ascendente en cada una. Esta es una clara indicación de la regla inmutable que apoyó el desarrollo de mainframes: preservar la funcionalidad del software desarrollado anteriormente.

Intel también es famosa en el mundo de las supercomputadoras. Las computadoras multiprocesador Paragon de Intel en la familia de estructuras multiprocesador de memoria distribuida se han vuelto igualmente clásicas.

Principios de von Neumann

En 1946, D. von Neumann, G. Goldstein y A. Berks esbozaron en un artículo conjunto nuevos principios para la construcción y el funcionamiento de ordenadores. Posteriormente, las dos primeras generaciones de ordenadores se produjeron sobre la base de estos principios. Ha habido algunos cambios en las generaciones posteriores, aunque los principios de Neumann siguen siendo relevantes en la actualidad. De hecho, Neumann logró resumir los desarrollos y descubrimientos científicos de muchos otros científicos y formular principios fundamentalmente nuevos sobre su base:
1. El principio de representación y almacenamiento de números.
El sistema numérico binario se utiliza para representar y almacenar números. La ventaja sobre el sistema numérico decimal es que el bit es fácil de implementar, la memoria de bits de gran capacidad es bastante barata, los dispositivos se pueden fabricar de manera bastante simple y las operaciones aritméticas y lógicas en el sistema numérico binario también son bastante simples.
2. El principio de control de programas informáticos.
El funcionamiento de la computadora está controlado por un programa que consta de un conjunto de comandos. Los comandos se ejecutan secuencialmente uno tras otro. Los comandos procesan datos almacenados en la memoria de la computadora.
3. Principio del programa almacenado.
La memoria de la computadora se utiliza no solo para almacenar datos, sino también programas. En este caso, tanto los comandos del programa como los datos están codificados en el sistema numérico binario, es decir, Su método de grabación es el mismo. Por lo tanto, en determinadas situaciones, puede realizar las mismas acciones con comandos que con datos.
4. El principio de acceso directo a la memoria.
Las celdas de RAM de la computadora tienen direcciones numeradas secuencialmente. En cualquier momento, puedes acceder a cualquier celda de memoria por su dirección.
5. El principio de ramificación y cálculos cíclicos.
Los comandos de salto condicional le permiten implementar una transición a cualquier sección de código, brindando así la capacidad de organizar ramificaciones y volver a ejecutar ciertas secciones del programa.
La consecuencia más importante de estos principios es que ahora el programa ya no es una parte permanente de la máquina (como, por ejemplo, una calculadora). Se hizo posible cambiar fácilmente el programa. Pero el equipamiento, por supuesto, se mantiene sin cambios y es muy sencillo. En comparación, el programa de la computadora ENIAC (que no tenía un programa almacenado) estaba determinado por puentes especiales en el panel. Reprogramar la máquina podría llevar más de un día (configure los puentes de manera diferente).
Y aunque los programas para computadoras modernas pueden tardar meses en desarrollarse, su instalación (instalación en una computadora) lleva varios minutos, incluso para programas grandes. Un programa de este tipo puede instalarse en millones de ordenadores y ejecutarse en cada uno de ellos durante años.

Aplicaciones

Anexo 1

Apéndice 2

Computadora “Ural”

Apéndice 3

Computadora "Strela"

Apéndice 4

IBM-305 y RAMAC

Apéndice 5

miniordenador PDP-8

Apéndice 6

Literatura:

1) Broido V.L. Sistemas informáticos, redes y telecomunicaciones. Libro de texto para universidades. 2da ed. – San Petersburgo: Peter, 2004

2) Zhmakin A.P. Arquitectura de Computadores. – San Petersburgo: BHV - Petersburgo, 2006

3) Semenenko V.A. y otros Computadoras electrónicas. Libro de texto para escuelas vocacionales - M.: Escuela Superior, 1991

Hoy en día resulta difícil de creer, pero los ordenadores, sin los cuales muchos ya no pueden imaginar su vida, aparecieron hace sólo unos 70 años. Uno de los que contribuyó decisivamente a su creación fue el científico estadounidense John von Neumann. Propuso los principios según los cuales funcionan la mayoría de las computadoras hasta el día de hoy. Veamos cómo funciona una máquina von Neumann.

Breve información biográfica

Janos Neumann nació en 1930 en Budapest, en el seno de una familia judía muy rica, que más tarde logró obtener un título nobiliario. Desde pequeño se distinguió por habilidades sobresalientes en todos los ámbitos. A los 23 años, Neumann ya había defendido su tesis doctoral en el campo de la física y la química experimentales. En 1930, el joven científico fue invitado a trabajar en Estados Unidos y, al mismo tiempo, Neumann se convirtió en uno de los primeros empleados del Instituto de Estudios Avanzados, donde trabajó como profesor hasta el final de su vida. Los intereses científicos de Neumann eran bastante amplios. En particular, es uno de los creadores del aparato de mecánica cuántica y del concepto de autómata celular.

Contribuciones a la informática.

Antes de descubrir qué principio no cumple la arquitectura de von Neumann, será interesante saber cómo se le ocurrió al científico la idea de crear un tipo moderno de máquina informática.

Von Neumann, experto en matemáticas de explosiones y ondas de choque, se desempeñó como consultor científico de uno de los laboratorios del Army Ordnance Survey de los Estados Unidos a principios de la década de 1940. En el otoño de 1943, por invitación personal de su líder, llegó a Los Álamos para participar en el desarrollo del Proyecto Manhattan, donde se le encomendó la tarea de calcular la fuerza de implosión y compresión de una carga de bomba atómica hasta una masa crítica. Para solucionarlo se requirieron grandes cálculos, que al principio se realizaron con calculadoras manuales y luego con tabuladores mecánicos de IBM, mediante tarjetas perforadas.

Conocí información sobre el progreso en la creación de computadoras electrónico-mecánicas y totalmente electrónicas. Pronto se involucró en el desarrollo de las computadoras EDVAC y ENIAC, lo que lo llevó a escribir el Primer Borrador del Informe inacabado sobre EDVAC, en el que presentó a la comunidad científica una idea completamente nueva de lo que debería ser la arquitectura de las computadoras.

Los principios de von Neumann

La informática como ciencia había llegado a un callejón sin salida en 1945, ya que todos almacenaban en su memoria los números procesados ​​en forma décima y los programas para realizar operaciones se especificaban instalando puentes en el tablero de distribución.

Esto limitó significativamente las capacidades de las computadoras. El verdadero avance fueron los principios de von Neumann. Se pueden expresar brevemente en una frase: la transición al sistema numérico binario y el principio de un programa almacenado.

Análisis

Consideremos con más detalle en qué principios se basa la estructura clásica de la máquina de von Neumann:

1. Transición al sistema binario desde decimal.

Este principio de la arquitectura Neumann permite el uso de dispositivos lógicos bastante simples.

2. Control de software de una computadora electrónica.

El funcionamiento de una computadora está controlado por un conjunto de comandos ejecutados secuencialmente uno tras otro. El desarrollo de las primeras máquinas con un programa almacenado en memoria marcó el inicio de la programación moderna.

3. Los datos y los programas se almacenan juntos en la memoria de la computadora.

Al mismo tiempo, tanto los datos como los comandos del programa tienen la misma forma de escribirse en el sistema numérico binario, por lo que en determinadas situaciones es posible realizar sobre ellos las mismas acciones que sobre los datos.

Consecuencias

Además, la arquitectura de la máquina Fonneyman tiene las siguientes características:

1. Las celdas de memoria tienen direcciones numeradas secuencialmente.

Gracias a la aplicación de este principio, se hizo posible el uso de variables en la programación. En particular, en cualquier momento puedes acceder a una determinada celda de memoria mediante su dirección.

2. Posibilidad de salto condicional durante la ejecución del programa.

Como ya se mencionó, los comandos en los programas deben ejecutarse secuencialmente. Sin embargo, es posible saltar a cualquier sección del código.

¿Cómo funciona una máquina von Neumann?

Dicho modelo matemático consta de almacenamiento (memoria), control y dispositivos de entrada y salida. Todos los comandos del programa están escritos en celdas de memoria ubicadas cerca y los datos para procesarlos están en celdas arbitrarias.

Cualquier equipo debe estar formado por:

  • indicaciones de qué operación se va a realizar;
  • direcciones de celdas de memoria en las que se almacenan los datos de origen afectados por la operación especificada;
  • direcciones de celdas en las que se debe escribir el resultado.

Las operaciones especificadas por los comandos en datos de origen específicos son realizadas por la ALU y los resultados se registran en celdas de memoria, es decir, se almacenan en una forma conveniente para el procesamiento posterior de la máquina o se transmiten a un dispositivo de salida (monitor, impresora, etc.) y volverse accesibles a los humanos.

La unidad de control controla todas las partes de la computadora. De él, otros dispositivos reciben señales-órdenes de "qué hacer", y de otros dispositivos recibe información sobre en qué estado se encuentran.

El dispositivo de control tiene un registro especial llamado "contador de programa" SK. Después de cargar los datos de origen y el programa en la memoria, la dirección de su primer comando se escribe en el CS. La unidad de control lee de la memoria de la computadora el contenido de la celda cuya dirección está en el IC y la coloca en el “Registro de Comando”. El dispositivo de control determina la operación correspondiente a un comando específico y “marca” en la memoria de la computadora los datos cuyas direcciones se indican en él. A continuación, la ALU o la computadora comienza a ejecutar una operación, al finalizar la cual el contenido del CS cambia en uno, es decir, apunta al siguiente comando.

Crítica

Las deficiencias y las perspectivas actuales siguen siendo objeto de debate. Hace mucho tiempo se advirtió que las máquinas creadas según los principios propuestos por este destacado científico no son perfectas.

Por lo tanto, en los exámenes de informática a menudo se puede encontrar la pregunta "¿qué principio no cumple la arquitectura de von Neumann y qué deficiencias tiene?"

Al responder la segunda parte, asegúrese de indicar:

  • por la presencia de una brecha semántica entre los lenguajes de programación de alto nivel y los sistemas de comando;
  • sobre el problema de hacer coincidir el rendimiento del OP y del procesador;
  • a la emergente crisis del software, provocada por el hecho de que los costos de su creación son mucho menores que los costos de desarrollo del hardware y no hay posibilidad de probar completamente el programa;
  • falta de perspectivas en términos de rendimiento, ya que su límite teórico ya ha sido alcanzado.

En cuanto a qué principio no cumple la arquitectura von Neumann, estamos hablando de la organización paralela de una gran cantidad de flujos de datos y comandos, característica de una arquitectura multiprocesador.

Conclusión

Ahora ya sabes qué principio no cumple la arquitectura de von Neumann. Es obvio que la ciencia y la tecnología no se detienen, y quizás muy pronto aparezca en cada hogar un tipo de computadora completamente nuevo, gracias al cual la humanidad alcanzará un nuevo nivel de desarrollo. Por cierto, el programa de formación “Arquitectura Von Neumann” le ayudará a prepararse para el examen. Estos recursos educativos digitales facilitan el aprendizaje del material y brindan la oportunidad de evaluar sus conocimientos.



¿Te gustó el artículo? Compártelo