Qu'est-ce que la notation scientifique ?
La notation scientifique est une façon d'écrire les nombres très grands ou très petits sous la forme a x 10^n, ou a (le coefficient ou la mantisse) est un nombre décimal compris entre 1 et 10 (1 inclus, 10 exclu), et n (l'exposant) est un entier relatif. Par exemple, 299 792 458 (la vitesse de la lumière en m/s) s'écrit 2,99792458 x 10^8. Le nombre 0,000 000 001 (un nanomètre en mètres) s'écrit 1 x 10^-9. Cette notation est universellement utilisée en sciences, en ingénierie et en informatique pour manipuler des ordres de grandeur sans écrire de longues séries de zéros.
Comment convertir en notation scientifique
Pour convertir un nombre en notation scientifique, déplacez la virgule décimale pour obtenir un nombre entre 1 et 10. Le nombre de positions déplacées donne l'exposant : positif si vous avez déplacé vers la gauche (nombre grand), négatif si vous avez déplacé vers la droite (nombre petit). Exemple : 45 600 → déplacez la virgule de 4 positions vers la gauche → 4,56 x 10^4. Exemple : 0,0072 → déplacez de 3 positions vers la droite → 7,2 x 10^-3. Pour la conversion inverse, déplacez la virgule du nombre de positions indiqué par l'exposant.
Opérations en notation scientifique
La notation scientifique facilite les calculs entre nombres d'ordres de grandeur différents. Pour multiplier, multipliez les coefficients et additionnez les exposants : (3 x 10^4) x (2 x 10^3) = 6 x 10^7. Pour diviser, divisez les coefficients et soustrayez les exposants. Pour additionner ou soustraire, il faut d'abord ramener les nombres au même exposant. Les calculatrices scientifiques utilisent souvent la notation "E" : 3,5E6 signifie 3,5 x 10^6. En programmation, on utilise la même notation : 3.5e6 en JavaScript, Python ou C.