Contactos

¿Cuántas matrices inversas pueden existir para una dada? Álgebra matricial - matriz inversa. Usando una calculadora

Álgebra matricial - Matriz inversa

matriz inversa

matriz inversa es una matriz que, cuando se multiplica tanto a la derecha como a la izquierda por una matriz dada, da la matriz identidad.
Denotemos la matriz inversa de la matriz. A a través de , entonces según la definición obtenemos:

Dónde mi- matriz de identidad.
Matriz cuadrada llamado no especial (no degenerado) si su determinante no es cero. De lo contrario se llama especial (degenerar) o singular.

El teorema se cumple: Toda matriz no singular tiene una matriz inversa.

La operación de encontrar la matriz inversa se llama apelar matrices. Consideremos el algoritmo de inversión de matrices. Sea una matriz no singular norte-ésimo orden:

donde Δ = det A ≠ 0.

Suma algebraica de un elemento matrices norte-ésimo orden A se llama determinante de una matriz tomada con cierto signo ( norte–1)ésimo orden obtenido al eliminar i-ésima línea y jª columna de la matriz A:

Creemos el llamado adjunto matriz:

¿Dónde están los complementos algebraicos de los elementos correspondientes de la matriz? A.
Tenga en cuenta que las sumas algebraicas de elementos de fila de matriz A se colocan en las columnas correspondientes de la matriz à , es decir, la matriz se transpone al mismo tiempo.
Dividiendo todos los elementos de la matriz. Ã por Δ – el valor del determinante de la matriz A, obtenemos como resultado la matriz inversa:

Observemos una serie de propiedades especiales de la matriz inversa:
1) para una matriz dada A su matriz inversa es el único;
2) si hay una matriz inversa, entonces marcha atrás a la derecha Y marcha atrás izquierda las matrices coinciden con él;
3) una matriz cuadrada singular (singular) no tiene matriz inversa.

Propiedades básicas de una matriz inversa:
1) el determinante de la matriz inversa y el determinante de la matriz original son recíprocos;
2) la matriz inversa del producto de matrices cuadradas es igual al producto de la matriz inversa de factores, tomado en orden inverso:

3) la matriz inversa transpuesta es igual a la matriz inversa de la matriz transpuesta dada:

EJEMPLO Calcula la inversa de la matriz dada.

En este artículo hablaremos sobre el método matricial para resolver un sistema de ecuaciones algebraicas lineales, encontraremos su definición y daremos ejemplos de soluciones.

Definición 1

Método de matriz inversa es un método utilizado para resolver SLAE si el número de incógnitas es igual al número de ecuaciones.

Ejemplo 1

Encuentre una solución a un sistema de n ecuaciones lineales con n incógnitas:

un 11 x 1 + un 12 x 2 + . . . + un 1 norte x norte = segundo 1 un norte 1 x 1 + un norte 2 x 2 + . . . + un norte norte x norte = segundo norte

Tipo de grabación matricial : A × X = B

donde A = a 11 a 12 ⋯ a 1 n a 21 a 22 ⋯ a 2 n ⋯ ⋯ ⋯ ⋯ a n 1 a n 2 ⋯ a n n es la matriz del sistema.

X = x 1 x 2 ⋮ x n - columna de incógnitas,

B = b 1 b 2 ⋮ b n - columna de coeficientes libres.

De la ecuación que recibimos, es necesario expresar X. Para hacer esto, debes multiplicar ambos lados de la ecuación matricial de la izquierda por A - 1:

A - 1 × A × X = A - 1 × B.

Dado que A - 1 × A = E, entonces E × X = A - 1 × B o X = A - 1 × B.

Comentario

La matriz inversa a la matriz A tiene derecho a existir sólo si se cumple la condición d e t A no es igual a cero. Por lo tanto, al resolver SLAE utilizando el método de matriz inversa, en primer lugar, se encuentra d e t A.

En el caso de que d e t A no sea igual a cero, el sistema sólo tiene una opción de solución: utilizar el método de la matriz inversa. Si d e t A = 0, entonces el sistema no se puede resolver con este método.

Un ejemplo de resolución de un sistema de ecuaciones lineales usando el método de matriz inversa

Ejemplo 2

Resolvemos el SLAE mediante el método de matriz inversa:

2 x 1 - 4 x 2 + 3 x 3 = 1 x 1 - 2 x 2 + 4 x 3 = 3 3 x 1 - x 2 + 5 x 3 = 2

¿Cómo resolver?

  • Escribimos el sistema en forma de ecuación matricial A X = B, donde

A = 2 - 4 3 1 - 2 4 3 - 1 5, X = x 1 x 2 x 3, B = 1 3 2.

  • Expresamos X a partir de esta ecuación:
  • Encuentre el determinante de la matriz A:

d e t A = 2 - 4 3 1 - 2 4 3 - 1 5 = 2 × (- 2) × 5 + 3 × (- 4) × 4 + 3 × (- 1) × 1 - 3 × (- 2) × 3 - - 1 × (- 4) × 5 - 2 × 4 - (- 1) = - 20 - 48 - 3 + 18 + 20 + 8 = - 25

d e t A no es igual a 0, por lo tanto el método de solución matricial inversa es adecuado para este sistema.

  • Encontramos la matriz inversa A - 1 usando la matriz aliada. Calculamos los complementos algebraicos A i j a los elementos correspondientes de la matriz A:

Un 11 = (- 1) (1 + 1) - 2 4 - 1 5 = - 10 + 4 = - 6,

Un 12 = (- 1) 1 + 2 1 4 3 5 = - (5 - 12) = 7,

Un 13 = (- 1) 1 + 3 1 - 2 3 - 1 = - 1 + 6 = 5,

Un 21 = (- 1) 2 + 1 - 4 3 - 1 5 = - (- 20 + 3) = 17,

Un 22 = (- 1) 2 + 2 2 3 3 5 - 10 - 9 = 1,

A 23 = (- 1) 2 + 3 2 - 4 3 - 1 = - (- 2 + 12) = - 10,

A 31 = (- 1) 3 + 1 - 4 3 - 2 4 = - 16 + 6 = - 10,

A 32 = (- 1) 3 + 2 2 3 1 4 = - (8 - 3) = - 5,

A 33 = (- 1) 3 + 3 2 - 4 1 - 2 = - 4 + 4 = 0.

  • Anotamos la matriz aliada A*, que está compuesta por complementos algebraicos de la matriz A:

Un * = - 6 7 5 17 1 - 10 - 10 - 5 0

  • Escribimos la matriz inversa según la fórmula:

A - 1 = 1 d mi t A (A *) T: A - 1 = - 1 25 - 6 17 - 10 7 1 - 5 5 - 10 0 ,

  • Multiplicamos la matriz inversa A - 1 por la columna de términos libres B y obtenemos una solución al sistema:

X = A - 1 × B = - 1 25 - 6 17 - 10 7 1 - 5 5 - 10 0 1 3 2 = - 1 25 - 6 + 51 - 20 7 + 3 - 10 5 - 30 + 0 = - 1 0 1

Respuesta : x 1 = - 1 ; x2 = 0; x3 = 1

Si nota un error en el texto, resáltelo y presione Ctrl+Enter

Para resolver el sistema de ecuaciones lineales (3) con respecto a x1 Utilicemos el método gaussiano.

Los sistemas restantes de ecuaciones lineales (2) se resuelven de forma similar.

Finalmente un grupo de vectores de columna. x 1 , x 2 , ..., x n forma la matriz inversa A-1.

Tenga en cuenta que una vez que se encuentran las matrices de permutación P 1 , P 2 , ... , P n-1 y matrices de excepción M 1, M 2, ..., M n-1(ver página Método de eliminación gaussiano) y construir una matriz

M=M n-1 P n-1 ...M 2 P 2 M 1 P 1 ,

El sistema (2) se puede transformar a la forma.

  • Máx 1 = Yo 1,
  • Máx 2 = Yo 2,
  • ......
  • MAx n = Me n .

De aquí son x 1 , x 2 , ..., x n, con diferentes lados derechos Yo 1, Yo 2, ..., Yo n.

Al calcular la matriz inversa, es más conveniente agregar una matriz identidad al lado derecho de la matriz original y aplicar el método gaussiano en las direcciones hacia adelante y hacia atrás.

Veamos esto con un ejemplo.

Un ejemplo de cálculo de una matriz inversa.

Supongamos que necesitamos encontrar la matriz inversa. A-1 para una matriz dada A:

Escribamos la matriz identidad en el lado derecho:

Seleccione el elemento principal "4" (ya que es el más grande en valor absoluto) e intercambie la primera y tercera líneas:

Aplique la eliminación gaussiana a la primera columna:

Reorganizamos la segunda y tercera filas y aplicamos la eliminación gaussiana para la segunda columna.

Se nos dará una matriz cuadrada. Necesitas encontrar la matriz inversa.

Primera manera. El teorema 4.1 de existencia y unicidad de una matriz inversa indica una de las formas de encontrarla.

1. Calcula el determinante de esta matriz. Si, entonces la matriz inversa no existe (la matriz es singular).

2. Construya una matriz a partir de complementos algebraicos de elementos matriciales.

3. Transponer la matriz para obtener la matriz adjunta. .

4. Encuentre la matriz inversa (4.1) dividiendo todos los elementos de la matriz adjunta por el determinante

Segunda vía. Para encontrar la matriz inversa, puedes utilizar transformaciones elementales.

1. Construya una matriz de bloques asignando a una matriz dada una matriz identidad del mismo orden.

2. Utilizando transformaciones elementales realizadas en las filas de la matriz, lleve su bloque izquierdo a su forma más simple. En este caso, la matriz de bloques se reduce a la forma en la que se obtiene una matriz cuadrada como resultado de transformaciones de la matriz identidad.

3. Si , entonces el bloque es igual a la inversa de la matriz, es decir, si, entonces la matriz no tiene inversa.

De hecho, con la ayuda de transformaciones elementales de las filas de la matriz, es posible reducir su bloque izquierdo a una forma simplificada (ver Fig. 1.5). En este caso, la matriz de bloques se transforma a la forma donde hay una matriz elemental que satisface la igualdad. Si la matriz no es degenerada, entonces, según el párrafo 2 de las Observaciones 3.3, su forma simplificada coincide con la matriz identidad. Entonces de la igualdad se deduce que. Si la matriz es singular, entonces su forma simplificada difiere de la matriz identidad y la matriz no tiene inversa.

11. Ecuaciones matriciales y su solución. Forma matricial de grabación SLAE. Método matricial (método de matriz inversa) para la resolución de SLAE y condiciones para su aplicabilidad.

Las ecuaciones matriciales son ecuaciones de la forma: A*X=C; X*A=C; A*X*B=C donde las matrices A, B, C son conocidas, la matriz X es desconocida, si las matrices A y B no son degeneradas, entonces las soluciones de las matrices originales se escribirán en la forma apropiada: X = A -1 * C; X=C*A-1; X=A-1 *C*B-1 Forma matricial de sistemas de escritura de ecuaciones algebraicas lineales. A cada SLAE se pueden asociar varias matrices; Además, el propio SLAE se puede escribir en forma de ecuación matricial. Para SLAE (1), considere las siguientes matrices:

La matriz A se llama matriz del sistema. Los elementos de esta matriz representan los coeficientes de un SLAE determinado.

La matriz A˜ se llama sistema de matriz extendida. Se obtiene añadiendo a la matriz del sistema una columna que contiene los términos libres b1,b2,...,bm. Por lo general, esta columna está separada por una línea vertical para mayor claridad.

La matriz columna B se llama matriz de miembros libres, y la matriz de columna X es matriz de incógnitas.

Usando la notación presentada anteriormente, SLAE (1) se puede escribir en forma de ecuación matricial: A⋅X=B.

Nota

Las matrices asociadas al sistema se pueden escribir de varias formas: todo depende del orden de las variables y ecuaciones del SLAE considerado. Pero en cualquier caso, el orden de las incógnitas en cada ecuación de un SLAE determinado debe ser el mismo.

El método matricial es adecuado para resolver SLAE en las que el número de ecuaciones coincide con el número de variables desconocidas y el determinante de la matriz principal del sistema es diferente de cero. Si el sistema contiene más de tres ecuaciones, entonces encontrar la matriz inversa requiere un esfuerzo computacional significativo, por lo que en este caso es recomendable utilizar método gaussiano.

12. SLAE homogéneos, condiciones para la existencia de sus soluciones distintas de cero. Propiedades de soluciones parciales de SLAE homogéneas.

Una ecuación lineal se dice homogénea si su término libre es igual a cero y no homogénea en caso contrario. Un sistema que consta de ecuaciones homogéneas se llama homogéneo y tiene la forma general:

13 .El concepto de independencia lineal y dependencia de soluciones parciales de un SLAE homogéneo. Sistema fundamental de soluciones (FSD) y su determinación. Representación de la solución general de un SLAE homogéneo a través del FSR.

Sistema de funciones y 1 (X ), y 2 (X ), …, y norte (X ) se llama linealmente dependiente en el intervalo ( a , b ), si hay un conjunto de coeficientes constantes distintos de cero al mismo tiempo, de modo que la combinación lineal de estas funciones sea idénticamente igual a cero en ( a , b ): Para . Si la igualdad para es posible sólo para , el sistema de funciones y 1 (X ), y 2 (X ), …, y norte (X ) se llama independiente linealmente en el intervalo ( a , b ). En otras palabras, las funciones y 1 (X ), y 2 (X ), …, y norte (X ) linealmente dependiente en el intervalo ( a , b ), si hay un igual a cero en ( a , b ) su combinación lineal no trivial. Funciones y 1 (X ),y 2 (X ), …, y norte (X ) independiente linealmente en el intervalo ( a , b ), si sólo su combinación lineal trivial es idénticamente igual a cero en ( a , b ).

Sistema de decisión fundamental (FSR) Un SLAE homogéneo es la base de este sistema de columnas.

El número de elementos en el FSR es igual al número de incógnitas del sistema menos el rango de la matriz del sistema. Cualquier solución del sistema original es una combinación lineal de soluciones del FSR.

Teorema

La solución general de un SLAE no homogéneo es igual a la suma de una solución particular de un SLAE no homogéneo y la solución general del SLAE homogéneo correspondiente.

1 . Si las columnas son soluciones de un sistema homogéneo de ecuaciones, entonces cualquier combinación lineal de ellas también es una solución del sistema homogéneo.

De hecho, de las igualdades se deduce que

aquellos. una combinación lineal de soluciones es una solución de un sistema homogéneo.

2. Si el rango de la matriz de un sistema homogéneo es igual a , entonces el sistema tiene soluciones linealmente independientes.

De hecho, utilizando las fórmulas (5.13) para la solución general de un sistema homogéneo, encontramos soluciones particulares, dando a las variables libres la siguiente conjuntos de valores estándar (cada vez asumiendo que una de las variables libres es igual a uno y el resto son iguales a cero):

que son linealmente independientes. De hecho, si crea una matriz a partir de estas columnas, sus últimas filas forman la matriz identidad. En consecuencia, el menor ubicado en las últimas líneas no es igual a cero (es igual a uno), es decir es básico. Por tanto, el rango de la matriz será igual. Esto significa que todas las columnas de esta matriz son linealmente independientes (ver Teorema 3.4).

Cualquier conjunto de soluciones linealmente independientes de un sistema homogéneo se llama sistema fundamental (conjunto) de soluciones .

14 Menor de décimo orden, menor básico, rango de la matriz. Calcular el rango de una matriz.

El orden k menor de una matriz A es el determinante de alguna de sus submatriz cuadrada de orden k.

En una matriz A de dimensiones m x n, un menor de orden r se llama básico si es distinto de cero, y todos los menores de orden superior, si existen, son iguales a cero.

Las columnas y filas de la matriz A, en cuya intersección hay una base menor, se denominan columnas y filas de la base de A.

Teorema 1. (Sobre el rango de la matriz). Para cualquier matriz, el rango menor es igual al rango de fila e igual al rango de columna.

Teorema 2. (Sobre la base menor). Cada columna de la matriz se descompone en una combinación lineal de sus columnas base.

El rango de una matriz (o rango menor) es el orden de la base menor o, en otras palabras, el orden más grande para el cual existen menores distintos de cero. El rango de una matriz cero se considera 0 por definición.

Observemos dos propiedades obvias de rango menor.

1) El rango de una matriz no cambia durante la transposición, ya que cuando se transpone una matriz, se transponen todas sus submatrices y las menores no cambian.

2) Si A’ es una submatriz de la matriz A, entonces el rango de A’ no excede el rango de A, ya que un menor distinto de cero incluido en A’ también está incluido en A.

15. El concepto de vector aritmético de dimensiones. Igualdad de vectores. Operaciones con vectores (suma, resta, multiplicación por un número, multiplicación por una matriz). Combinación lineal de vectores.

recogida ordenada norte los numeros reales o complejos se llaman vector n-dimensional. los numeros se llaman coordenadas vectoriales.

Dos vectores (distintos de cero) a Y b son iguales si están igualmente dirigidos y tienen el mismo módulo. Todos los vectores cero se consideran iguales. En todos los demás casos, los vectores no son iguales.

Suma de vectores. Hay dos formas de sumar vectores: 1. Regla del paralelogramo. Para sumar los vectores y, colocamos los orígenes de ambos en el mismo punto. Construimos hasta formar un paralelogramo y desde el mismo punto trazamos una diagonal del paralelogramo. Esta será la suma de los vectores.

2. El segundo método para sumar vectores es la regla del triángulo. Tomemos los mismos vectores y . Sumaremos el comienzo del segundo al final del primer vector. Ahora conectemos el comienzo del primero y el final del segundo. Esta es la suma de los vectores y . Usando la misma regla, puedes sumar varios vectores. Los organizamos uno tras otro y luego conectamos el principio del primero con el final del último.

Resta de vectores. El vector está dirigido en dirección opuesta al vector. Las longitudes de los vectores son iguales. Ahora está claro qué es la resta de vectores. La diferencia de vectores y es la suma del vector y el vector.

Multiplicar un vector por un número

Multiplicar un vector por un número k produce un vector cuya longitud es k veces la longitud. Es codireccional con el vector si k es mayor que cero y de dirección opuesta si k es menor que cero.

El producto escalar de vectores es el producto de las longitudes de los vectores por el coseno del ángulo entre ellos. Si los vectores son perpendiculares, su producto escalar es cero. Y así se expresa el producto escalar a través de las coordenadas de los vectores y .

Combinación lineal de vectores.

Combinación lineal de vectores. llamado vector

Dónde - coeficientes de combinación lineal. Si una combinación se llama trivial si no es trivial.

16 .Producto escalar de vectores aritméticos. Longitud del vector y ángulo entre vectores. El concepto de ortogonalidad vectorial.

El producto escalar de los vectores a y b es el número

El producto escalar se utiliza para calcular: 1) encontrar el ángulo entre ellos; 2) encontrar la proyección de vectores; 3) calcular la longitud de un vector; 4) las condiciones de perpendicularidad de los vectores.

La longitud del segmento AB se llama distancia entre los puntos A y B. El ángulo entre los vectores A y B se llama ángulo α = (a, b), 0≤ α ≤P. Por lo cual necesitas rotar 1 vector para que su dirección coincida con otro vector. Siempre que sus orígenes coincidan.

Un ortom a es un vector a que tiene longitud unitaria y dirección a.

17. Sistema de vectores y su combinación lineal. El concepto de dependencia lineal e independencia de un sistema de vectores. Teorema sobre las condiciones necesarias y suficientes para la dependencia lineal de un sistema de vectores.

Un sistema de vectores a1,a2,...,an se llama linealmente dependiente si existen números λ1,λ2,...,λn tales que al menos uno de ellos es distinto de cero y λ1a1+λ2a2+...+λnan=0 . En caso contrario, el sistema se llama linealmente independiente.

Dos vectores a1 y a2 se llaman colineales si sus direcciones son iguales o opuestas.

Tres vectores a1, a2 y a3 se llaman coplanares si son paralelos a algún plano.

Criterios geométricos para la dependencia lineal:

a) el sistema (a1,a2) es linealmente dependiente si y sólo si los vectores a1 y a2 son colineales.

b) el sistema (a1,a2,a3) es linealmente dependiente si y sólo si los vectores a1,a2 y a3 son coplanares.

teorema. (Condición necesaria y suficiente para la dependencia lineal sistemas vectores.)

Sistema vectorial vector espacio es lineal dependiente si y sólo si uno de los vectores del sistema se expresa linealmente en términos de los demás vector este sistema.

Corolario 1. Un sistema de vectores en un espacio vectorial es linealmente independiente si y sólo si ninguno de los vectores del sistema se expresa linealmente en términos de otros vectores de este sistema.2. Un sistema de vectores que contiene un vector cero o dos vectores iguales es linealmente dependiente.

1. Encuentra el determinante de la matriz original. Si , entonces la matriz es singular y no existe una matriz inversa. Si, entonces existe una matriz inversa y no degenerada.

2. Encuentre la matriz a la que se transpone.

3. Encuentra los complementos algebraicos de los elementos y compone la matriz adjunta a partir de ellos.

4. Formamos la matriz inversa usando la fórmula.

5. Comprobamos la exactitud del cálculo de la matriz inversa, en base a su definición:.

Ejemplo. Encuentra la matriz inversa de esto: .

Solución.

1) Determinante de la matriz

.

2) Encuentre los complementos algebraicos de los elementos de la matriz y componga la matriz adjunta a partir de ellos:

3) Calcular la matriz inversa:

,

4) Verificar:

№4Rango de matriz. Independencia lineal de las filas de la matriz.

Para resolver y estudiar una serie de problemas matemáticos y aplicados, el concepto de rango matricial es importante.

En una matriz de tamaño, al eliminar filas y columnas, puede aislar submatrices cuadradas de orden ésimo, donde. Los determinantes de tales submatrices se llaman menores del orden matricial .

Por ejemplo, a partir de matrices se pueden obtener submatrices de 1º, 2º y 3º orden.

Definición. El rango de una matriz es el orden más alto de los menores distintos de cero de esa matriz. Designación: o.

De la definición se sigue:

1) El rango de la matriz no excede la menor de sus dimensiones, es decir

2) si y sólo si todos los elementos de la matriz son iguales a cero, es decir

3) Para una matriz cuadrada de enésimo orden si y solo si la matriz no es singular.

Dado que enumerar directamente todos los posibles menores de la matriz, comenzando con el tamaño más grande, es difícil (consume mucho tiempo), utilizan transformaciones matriciales elementales que preservan el rango de la matriz.

Transformaciones matriciales elementales:

1) Descartando la fila (columna) cero.

2) Multiplicar todos los elementos de una fila (columna) por un número.

3) Cambiar el orden de las filas (columnas) de la matriz.

4) Sumar a cada elemento de una fila (columna) los elementos correspondientes de otra fila (columna), multiplicados por cualquier número.

5) Transposición matricial.

Definición. Una matriz obtenida a partir de una matriz mediante transformaciones elementales se llama equivalente y se denota A EN.

Teorema. El rango de la matriz no cambia durante las transformaciones de matrices elementales.

Usando transformaciones elementales, es posible reducir la matriz a la llamada forma escalonada, cuando calcular su rango no es difícil.

Una matriz se llama escalonada si tiene la forma:

Obviamente, el rango de una matriz escalonada es igual al número de filas distintas de cero, ya que hay un orden menor que no es igual a cero:

.

Ejemplo. Determinar el rango de una matriz mediante transformaciones elementales.

El rango de la matriz es igual al número de filas distintas de cero, es decir .

№5Independencia lineal de las filas de la matriz.

Dada una matriz de tamaño

Denotemos las filas de la matriz de la siguiente manera:

Las dos líneas se llaman igual , si sus elementos correspondientes son iguales. .

Introduzcamos las operaciones de multiplicar una cadena por un número y sumar cadenas como operaciones realizadas elemento por elemento:

Definición. Una fila se llama combinación lineal de filas de una matriz si es igual a la suma de los productos de estas filas por números reales arbitrarios (cualquier número):

Definición. Las filas de la matriz se llaman linealmente dependiente , si hay números que no son simultáneamente iguales a cero, de modo que una combinación lineal de filas de la matriz sea igual a la fila cero:

Dónde . (1.1)

La dependencia lineal de las filas de la matriz significa que al menos 1 fila de la matriz es una combinación lineal del resto.

Definición. Si una combinación lineal de filas (1.1) es igual a cero si y sólo si todos los coeficientes son , entonces las filas se llaman independiente linealmente .

Teorema del rango matricial . El rango de una matriz es igual al número máximo de sus filas o columnas linealmente independientes a través de las cuales se expresan linealmente todas las demás filas (columnas).

El teorema juega un papel fundamental en el análisis matricial, en particular, en el estudio de sistemas de ecuaciones lineales.

№6Resolver un sistema de ecuaciones lineales con incógnitas.

Los sistemas de ecuaciones lineales se utilizan ampliamente en economía.

El sistema de ecuaciones lineales con variables tiene la forma:

,

donde () son números arbitrarios llamados coeficientes para variables Y términos libres de las ecuaciones , respectivamente.

Entrada breve: ().

Definición. La solución del sistema es un conjunto de valores, tras la sustitución del cual cada ecuación del sistema se convierte en una verdadera igualdad.

1) El sistema de ecuaciones se llama articulación , si tiene al menos una solución, y no conjunto, si no tiene soluciones.

2) El sistema simultáneo de ecuaciones se llama cierto , si tiene una solución única, y incierto , si tiene más de una solución.

3) Dos sistemas de ecuaciones se llaman equivalente (equivalente ) , si tienen el mismo conjunto de soluciones (por ejemplo, una solución).



¿Te gustó el artículo? Compártelo