Matrices:
Las matrices de rotación son solo un ejemplo de cantidades con dos índices que son llamadas matrices por lo matemáticos.
Es posible definir reglas de cálculo generalmente para matrices de
,
es decir, esquemas con
filas y
columnas, y examinar sus estructuras. Deseamos restringir nuestras
consideraciones a matrices cuadradas de
,
y aun más específicamente a matrices de
con
elementos reales.
Denotamos las matrices por letras mayúsculas en negritas, por ejemplo
.
Sus elementos
llevan dos índices: el izquierdo
denota la fila (horizontal) y el derecho
, la columna (vertical) de la matriz:
Algunas clases de matrices tiene nombres especiales debido a su importancia:
En particular, matrices diagonales
son de especial importancia, teniendo sólo tres elementos
,
y
a
lo largo de la llamada diagonal principal (:desde la izquierda arriba
hasta la derecha abajo) diferentes de
.
La segunda diagonal (:desde la derecha arriba hasta la izquierda abajo) es,
comparativamente, mucho menos importante.
Las matrices de rotaciones por un múltiplo de
son
ejemplos de matrices diagonales:
,
y
.
A la mitad de camino de las matrices diagonales se encuentran las matrices triangulares, que únicamente tiene ceros ya sea por sobre o por debajo de la diagonal principal:
También matrices en forma de cajas (diagonales por bloques) son especialmente convenientes para
muchos propósitos. En estas matrices, los elementos no nulos ocurren sólo en
cajas alrededor de la diagonal principal. Nuestras matrices de rotación
y
son
de este tipo.
Una simple operación que puede ser llevada a cabo con cualquier matriz es
la transposición: esto significa la reflexión de toda la matriz a
trevés de la diagonal principal, o en otras palabras, el intercambio de filas
por columnas:
Existen matrices para las cuales la transposición nada cambia. Ellas se denomina simétricas.
Estas matrices simétricas ocurren muy frecuentemente en física y tiene la ventaja que ellas pueden diagonalizarse por medio de ciertas transformaciones simples.
Como Usted ve inmediatamente, cada matriz simétrica tiene sólo seis elementos independientes.
Si las reflexiones a través de la diagonal principal dan un signo menos, la matriz se denomina antisimétrica:
Por supuesto, los elementos diagonales deben anularse en este caso.
Claramente, una matriz antisimétrica de
tiene
sólo tres elementos independientes. Esta es la razón profunda para la
existencia de un producto vectorial en tres dimensiones, como veremos pronto
en mayor detalle.
Finalmente, mencionamos una cantidad especial de toda matriz: la suma de los elementos a lo largo de la diagonal principal se denomina traza de la matriz:
Sin embargo, mucho más importante para
la física es la multiplicación de dos matrices de
que
corresponde en el caso de matrices de transformación a dos transformaciones de
sistemas coordenados, realizadas una tras la otra:
Se satisface la siguiente:
multiplicación de matrices:
|
En la última parte, el símbolo de suma se ha omitido de acuerdo a la convención de suma de Einstein (véase sección 9.2.3.2), dado que dos índice idénticos indican la suma suficientemente bien.
Para calcular el elemento de matriz del producto
en la fila z y en la columna s, podemos imaginar que la s-ésima columna
(vertical)
de la matriz factor
en
el lado derecho se coloca horizontalmente sobre la z-ésima fila
de la matriz factor de la izquierda
,
se multiplican los elementos término a término y se suman los tres productos
resultantes: por ejemplo
,
luego, en resumen:
Ejercicio 9.10: Multiplicación de matrices Multiplique las siguientes matrices de transformación:
|
El descubrimiento más importante al trabajar con el Ejercicio 9.10 es el hecho que en general no se satisface la ley conmutativa para rotaciones y, consecuentemente, tampoco para las matrices que las representan. Usted puede corroborar esto visualmente con cualquier caja de fósforos (cerillas) como se ilustra en la siguiente Figura:
Figura 9.10: Caja de fósforos, primero rotada por
alrededor
del eje 3 y luego por
alrededor
del eje 1, comparada con una caja que se rota primero alrededor del eje 1 y
posteriormente alrededor del eje 3.
Los ejemplos del Ejercicio 9.10 ya le han mostrado que en algunos
casos excepcionales , la ley conmutativa sí se satisface:
todas las rotaciones alrededor de un eje por ejemplo, son conmutables.
También, todas las matrices diagonales conmutan entre sí. Esta es la razón
para su popularidad. si
,
la llamada relación de conmutación
promete ser una cantidad interesante. Ésta adquirirá gran significado más
tarde en Mecánica Cuántica.
Aparte de la conmutatividad, la multiplicación de matrices se comporta como esperado: se satisface una
Ejercicio 9.11: Ley asociativa para la multiplicación de matrices Verifique la ley asociativa para la rotación de Euler:
|
Con la
Para nuestras
matrices de transformación, sin embargo, esta ligadura no es importante.
Para estas matrices, la inversa es simplemente la transpuesta
,
que existe en cada caso, como hemos visto: los matemáticos llama a estas
matrices ortogonales (véase sección 9.8.2) y las inspeccionaremos cuidadosamente más tarde: