I en artig tråd som merkelig nok forsvant var det en off-topic diskusjon om 1GB = 1000MB eller 1024MB. Tydeligvis litt forvirring rund dette, og jeg tenkte jeg kunne gjøre ting litt klarere.
Per definisjon er 1KB lik 1000 bytes. 1MB = 1000KB = 1000'000 bytes. osv. Men i data- og digitalverdenen er det sant nok ofte slik at 1KB er lik 1024 bytes, 1MB = 1024KB osv. Dog det er på ingen måte konsekvent. De forskjellige definisjonene brukes om hverandre. Et veldig godt eksempel på dette er når du kjøper en harddisk. Når du kjøper en på 500GB forventer du at den skal vises som 500GB, men i operativsystemet vises den oftest som betydelig mindre. Her har altså harddiskprodusentene definert 500GB som 500 milliarder bytes (siden den definisjonen gir det største tallet) mens i operativsystemet defineres ofte 500GB som 500 * 1024^3 bytes.
For å få orden på dette klusset ble det laget en ny standard.
Den riktige definisjonen på K, M, G, T osv. er fortsatt, 1000, 1000'000 osv.
De nye definisjonene er Ki, Mi, Gi, Ti, ... Disse tilsvarer 1024, 1024*1024, osv.
Disse utales, kibi, mebi, gibi, tebi.
Dessverre er disse definisjonene veldig lite brukt i praksis, så ikke forvent å se dem noe sted.
Se Binary prefix på Wikipedia for mer informasjon.
Noen lurer kanskje på.. hva i helvete er vitsen med disse teite definisjonene? Hvorfor begynte man å si at 1KB = 1024 bytes i det hele tatt? Det har med binærsystemet å gjøre. I digitale systemer er alle tall representert på en eller måte med binære tall. Disse tallene har en kapasitet (antall mulige tilstander) på 2^n, hvor n er antall bits brukt. Tilfeldigvis er 2^10 = 1024, noe som jo er ganske nærme 1000. Det er derfor nesten rimelig å si at K = 1024, og dette gjør det litt enklere for programmere og ingeniører som designer digitale kretser, siden forkortelsene kan uttrykkes som 2^n. Hvis 1KB = 2^10B, blir 1MB = 2^10KB = 2^10 * 2^10 B = 2^20 B.. enkel hoderegning. Det var en kort, ubrukelig og sikkert mangelfull forklaring.
Per definisjon er 1KB lik 1000 bytes. 1MB = 1000KB = 1000'000 bytes. osv. Men i data- og digitalverdenen er det sant nok ofte slik at 1KB er lik 1024 bytes, 1MB = 1024KB osv. Dog det er på ingen måte konsekvent. De forskjellige definisjonene brukes om hverandre. Et veldig godt eksempel på dette er når du kjøper en harddisk. Når du kjøper en på 500GB forventer du at den skal vises som 500GB, men i operativsystemet vises den oftest som betydelig mindre. Her har altså harddiskprodusentene definert 500GB som 500 milliarder bytes (siden den definisjonen gir det største tallet) mens i operativsystemet defineres ofte 500GB som 500 * 1024^3 bytes.
For å få orden på dette klusset ble det laget en ny standard.
Den riktige definisjonen på K, M, G, T osv. er fortsatt, 1000, 1000'000 osv.
De nye definisjonene er Ki, Mi, Gi, Ti, ... Disse tilsvarer 1024, 1024*1024, osv.
Disse utales, kibi, mebi, gibi, tebi.
Dessverre er disse definisjonene veldig lite brukt i praksis, så ikke forvent å se dem noe sted.
Se Binary prefix på Wikipedia for mer informasjon.
Noen lurer kanskje på.. hva i helvete er vitsen med disse teite definisjonene? Hvorfor begynte man å si at 1KB = 1024 bytes i det hele tatt? Det har med binærsystemet å gjøre. I digitale systemer er alle tall representert på en eller måte med binære tall. Disse tallene har en kapasitet (antall mulige tilstander) på 2^n, hvor n er antall bits brukt. Tilfeldigvis er 2^10 = 1024, noe som jo er ganske nærme 1000. Det er derfor nesten rimelig å si at K = 1024, og dette gjør det litt enklere for programmere og ingeniører som designer digitale kretser, siden forkortelsene kan uttrykkes som 2^n. Hvis 1KB = 2^10B, blir 1MB = 2^10KB = 2^10 * 2^10 B = 2^20 B.. enkel hoderegning. Det var en kort, ubrukelig og sikkert mangelfull forklaring.
Sist endret av Skyfex; 30. desember 2007 kl. 04:41.