¿Qué es el sistema de magnitudes de estrellas?

[Subir]

A simple vista podemos notar diferencias en el brillo de las estrellas. Los astrónomos miden dicha luminosidad en unidades denominadas "magnitudes". En cierto sentido es un término poco preciso, pues no tiene nada que ver con el tamaño de las estrellas; además la escala de magnitudes es más bien de oscurecimientos que de luminosidades. Una estrella de magnitud 1 es más brillante que una de magnitud 2; esta que una de magnitud 3, y sucesivamente. El primero que confeccionó un catálogo de estrellas dando cuenta de su luminosidad fue el astrónomo griego Hiparco, que vivió alrededor del año 150 a. C. Unos 300 años después Tolomeo amplió el trabajo de Hiparco e hizo un catálogo en el que utilizó el término magnitud. Tolomeo consideró seis magnitudes estelares que pueden distinguirse a simple vista, siendo éste el sistema de magnitudes utilizado hoy en día, aunque más preciso.

En dicho sistema una estrella de magnitud 1 es exactamente 100 veces más brillante que una de magnitud 6. Puesto que hay cinco intervalos de magnitud entre 1 y 6, una estrella de una magnitud determinada es la raíz quinta de cien aproximadamente unas 2 ½ veces más brillante que una estrella de la magnitud siguiente. Esto es así porque 2 ½ x 2 ½ x 2 ½ x 2 ½ x 2 ½ es aproximadamente igual a 100. Puesto que la escala de magnitudes varía aumentando o disminuyendo a intervalos iguales, podemos ampliarla en cualquier dirección según nuestras necesidades. Por ejemplo. podemos incluir estrellas tan débiles que no pueden apreciarse a simple vista, como hacemos cuando decimos que el telescopio de 5 metros fotografía estrellas de magnitud 21. También es posible ampliar la escala para incluir estrellas muy brillantes. Para lograrlo basta comprender que una estrella 2 ½ veces mas brillante que las de magnitud 1 debe ser de magnitud 0, y una 2 ½ veces más brillante que la de magnitud 0 debe ser de magnitud -1. En esta escala la Luna llena tiene una magnitud de -12 ½ y el Sol una magnitud de unos -26,91.

Cuando utilizamos la escala de magnitudes de esta manera, sólo indicamos la luminosidad de las estrellas según se nos aparecen observadas desde la Tierra; estamos hablando por lo tanto de su "magnitud aparente". Pero dos estrellas que veamos exactamente con el mismo brillo pueden ser en realidad de muy distinta luminosidad, al estar situada una de ellas a mucho menos distancia de nosotros que la otra. Para comparar las luminosidades verdaderas de dos estrellas (para obtener su "magnitud absoluta") debemos conocer no sólo sus brillos aparentes, sino también las distancias a que están situadas. Cuando sabemos la distancia y la luminosidad, estamos en condiciones de calcular el brillo que ambas presentarían si estuviesen a la misma distancia. Esto nos suministra su magnitud absoluta o luminosidad verdadera. Cuando los astrónomos calculan magnitudes absolutas utilizan un determinado patrón de distancias que indica el brillo con que aparecerían las estrellas si estuviesen situadas exactamente a 10 pársec de nosotros o 32,6 años luz. (El pársec es la distancia a la que una estrella mostraría un paralaje de menos de 1 segundo de arco; corresponde a algo más de 30 billones de kilómetros, o 3,26 años luz).