Svar:
Forklaring:
Det videnskabelige noteringsformat består i at udtrykke et tal (normalt en måling) mellem 1 og 10 og multiplicere den derefter med et helt tal på 10.
For at bestemme antallet af cifre, skal du finde antallet af signifikante tal, der er til stede i det givne nummer.
Bemærk at de efterfølgende nuller ikke er signifikante. Dette efterlader dit nummer med 3 betydelige tal.
Dette betyder, at der er brug for tre cifre i dit videnskabelige notationsudtryk.
De samlede sundhedsomkostninger i USA i 2003 var $ 2.000.000.000.000. Hvordan udtrykker du dette tal i videnskabelig notation?
2xx10 ^ 12 Vi har 12 nul efter 2
Hvad er 51.000.000.000 i en videnskabelig notation?
5.1 x10 ^ 10 Du skal placere decimaltalet, så der er et ikke-nulciffer til venstre for decimaltegnet. Du tæller derefter alle tallene til højre for decimaltallet.
Hvordan skriver du 33.400.000.000.000.000.000.000 i videnskabelig notation?
3.34xx10 ^ 22 3.34xx10 ^ 22 = 33400000000000000000000 Du skal flytte decimalpladsen toogtyve gange til venstre, og hver gang du flytter den til venstre øges eksponenten med 10 ^ 1. For eksempel vil 100 blive skrevet i videnskabelig notation som 10 ^ 2, fordi du skal flytte decimalerummet to gange til venstre. Husk at tallet multipliceret med 10 ^ x skal være mellem 1 og 10. Derfor skal tallet være i dette tilfælde 3.34. For at nå dette nummer, ville vi have brug for at flytte decimalen toogtyve gange til venstre. Svaret er således 3,34 gange 10 ^ 22.