هذا الأمر طبيعي والسبب بسيط :
شركات تصنيع الهاردات ووسائط التخزين تتعامل على أن كل 1 حيغابايت = 1000 ميغابايت وكل 1 ميغابايت = 1000 كيلوبايت وكل 1 كيلوبايت = 1000 بايت.
في حين الويندوز يتعامل على أن كل 1 جيغابايت = 1024 ميغابايت وكل 1 ميغابايت = 1024 كيلوبايت وكل 1 كيلوبايت = 1024 بايت
وكما تلاحظ الفرق في الطريقتين هي التي تجعل الويندوز يقرأ الفلاش ميموري بمساحة أقل...
مصنّعي وسائط التخزين ( سواء ذاكرات فلاش أو بطاقات ذاكرة أو أقراص صلبة ) يستخدمون عامل مضاعفة هو 1000، بينما أنظمة التشغيل تستخدم عامل مضاعفة هو 1024
بالعربية، عندما تجد ذاكرة حجمها 2 جيجا فإن حجمها يعادل
2 جيجا = 2000 ميجا = 2000000 كيلو = 2000000000 بايت، وهذه هي السعة التخزينية فيها
ولكن عندما يتم استخدامها في نظام التشغيل فإنه سيقوم بحساب الكيلو = 1024 بايت وليس 1000، والميجا = 1024 كيلوبايت وليس 1000 والجيجا = 1024 ميجابايت
هذا يعني أن الـ 1 جيجا تحسبه أنظمة التشغيل ( سواء الهواتف أو أنظمة تشغيل أخرى ) يكون
1 كيلوبايت = 1024 بايت
1 ميجابايت = 1024 كيلوبايت ( 1024 × 1024 بايت )
1 جيجابايت = 1024 ميجابايت ( 1024 × 1024 × 1024 بايت )
إذاً الـ 2 جيجابايت حسب شروط أنظمة التشغيل يجب أن تحتوي على 2 × 1024 × 1024 × 1024 بايت
وهذا يعادل 2147483648 بايت
وكما تعلم فإن بطاقة الذاكرة تتضمن 2000000000 بايت بالضبط وهذا أقل ...
لنحسب إذاً كم ستبدو بطاقة الـ 2 جيجا في نظام التشغيل
بطاقة الأـ 2 جيجا تتضمن 2000000000 بايت
أي 2000000000 ÷ 1024 = 1953125 كيلوبايت
أي 1953125 ÷ 1024 = 1907.3 ميجابايت
أي 1907.3 ÷ 1024 = 1.86 جيجابايت اي تقريباً 1.9 إذا قمنا بالتقريب فهذه النتيجة التي ستظهر لنا.
.سلامووو.