L'échelle de magnitude de Pogson
L'échelle de magnitude a été formalisée par Norman Pogson en 1856 à partir du système de l'astronome grec Hipparque (IIe siècle av. J.-C.). Pogson a défini une différence de 5 magnitudes = facteur 100 de brillance, soit une différence de 1 magnitude = facteur 10^(1/2,5) ≈ 2,512. La formule est : m₁ − m₂ = −2,5 × log₁₀(F₁/F₂). Les magnitudes peuvent être négatives (Soleil, Lune, Vénus, Sirius) pour les objets très brillants.
Magnitude apparente vs magnitude absolue
La magnitude apparente est ce qu'on observe depuis la Terre : elle dépend de la distance. La magnitude absolue est la magnitude qu'aurait un objet s'il était placé à 10 parsecs (32,6 années-lumière) de la Terre — c'est une mesure intrinsèque de la luminosité. Le Soleil a une magnitude apparente de −26,74 mais une magnitude absolue de +4,83 : à 10 pc, il serait à peine visible à l'œil nu. Sirius (magnitude apparente −1,46) a une magnitude absolue de +1,42.