
خبر غير مفهوم للجميع لكنه مثير للفضول: العثور على نصف المادة التي يتكون منها الكون
بعد أكثر من 30 عاما من الحيرة، نجح فريق بحثي دولي في حل أحد أعظم الألغاز الكونية، وهو اختفاء نصف المادة العادية التي يتكون منها الكون، المعروفة باسم "المادة الباريونية".
وتمكن الباحثون من تتبع وتحديد مكان كل المادة الباريونية (Baryonic Matter) المتوقعة في الكون (المادة المكونة من جسيمات أولية مثل البروتونات والنيوترونات والإلكترونات، والتي تشكل كل الأجسام الملموسة في الكون، مثل النجوم والكواكب)، باستخدام ظاهرة فلكية غامضة تعرف باسم "الومضات الراديوية السريعة" (FRB)، تلك الانفجارات الكونية القصيرة التي تلمع لأجزاء من الثانية فقط.
ولطالما حيرت "المادة المفقودة" علماء الفلك منذ أن أظهرت حسابات نظرية أن كمية المادة الباريونية يجب أن تكون ضعف ما تم رصده فعليا.
والآن، وبفضل تقنية جديدة تعتمد على تحليل مسار هذه الومضات الكونية، تمكن الباحثون من تحديد مكان اختباء هذه المادة الغامضة.
وتقوم التقنية الجديدة على مبدأ بسيط لكنه ثوري: فعندما تعبر الومضة الراديوية عبر الفضاء بين المجرات، فإنها تتفاعل مع الإلكترونات الحرة في الغاز الكوني، ما يؤدي إلى تأخير طفيف في وصولها. ومن خلال قياس هذا التأخير بدقة متناهية عبر مسارات متعددة، استطاع العلماء تقدير كمية وكثافة المادة التي مرت خلالها هذه الومضات.
وكشفت النتائج التي نشرت في دورية Nature Astronomy أن هذه المادة "المفقودة" لم تكن في الحقيقة مفقودة، بل كانت منتشرة بشكل خفي بين المجرات في شكل غاز ساخن للغاية، خافت جدا بحيث لا يمكن رصده بالطرق التقليدية. ونحو ثلاثة أرباع المادة الباريونية في الكون (76%) تتواجد في "الوسط بين المجرات" (غاز ساخن منتشر بين المجرات)، بينما توجد بنسبة 15% في هالات المجرات والنجوم والكواكب (مناطق كروية حارة عند أطراف المجرات، والـ9% المتبقية تشكل النجوم والكواكب والغازات الباردة داخل المجرات.
ولا يحل هذا الاكتشاف لغزا علميا طال أمده فحسب، بل يفتح أيضا بابا جديدا لفهمنا لبنية الكون. ويقول البروفيسور فيكرام رافي من معهد كاليفورنيا للتكنولوجيا، أحد مؤلفي الدراسة: "الأمر يشبه أننا نرى ظل جميع الباريونات، مع الومضات الراديوية كضوء خلفي". موضحا: "حتى لو لم نتمكن من رؤية الشخص نفسه، فإن ظله يخبرنا بوجوده وحجمه تقريبا".
وحسب "لايف ساينس" مع التطور المتوقع في أجهزة الرصد الفلكي، وخاصة مشروع مصفوفة التلسكوبات الراديوية العميقة Deep Synoptic Array-2000 الذي سيرصد آلاف الومضات الراديوية سنويا، يتوقع العلماء أن يتمكنوا قريبا من رسم خريطة ثلاثية الأبعاد دقيقة لتوزيع المادة في الكون المرئي بأكمله، ما قد يقود إلى اكتشافات جديدة تغير فهمنا للكون بشكل جذري.
هاشتاغز

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


صحيفة الخليج
منذ ساعة واحدة
- صحيفة الخليج
نشر أولى صور «فيرا روبين» لمجرات بعيدة ومناطق تكوّنت فيها النجوم
نشر فريق مرصد «فيرا روبين» في تشيلي، الاثنين، أولى الصور التي التقطها المرصد لمناظر خلابة لمجرات بعيدة ومناطق تكوّنت فيها النجوم. يقع هذا التلسكوب العملاق المموّل من المؤسسة الوطنية للعلوم ووزارة الطاقة الأمريكية، في تشيلي، وهو موقع مثالي لمراقبة الكون بفضل انخفاض غطائه السحابي ومناخه الجاف. ويتميّز المرصد المزوّد بتلسكوب قطره 8,4 متر وأكبر كاميرا فلكية صُنعت على الإطلاق في العالم، بنظام قوي لمعالجة البيانات. وبعد أكثر من 20 عاماً من العمل، نشر المرصد أولى صوره، بينها صورة لسديم تريفيد وسديم البحيرة، على بُعد آلاف السنين الضوئية من الأرض. وتشكّل الصورة الوردية الزاهية على خلفية برتقالية مائلة إلى الأحمر نتاج 678 صورة التُقطت على مدار سبع ساعات. وتظهر الصورة هاتين الحاضنتين النجميتين داخل مجرتنا درب التبانة بتفاصيل غير مسبوقة، كاشفة بوضوح عن سمات لم تُرصد من قبل. وتُظهر صورة أخرى مشهداً مذهلاً لعنقود العذراء المجري. كما نشر فريق المرصد فيديو بعنوان «صندوق الكنز الكوني»، يبدأ بلقطة مقربة لمجرتين، ويظهر تدريجياً نحو 10 ملايين مجرة أخرى. وقال مايكل كراتسيوس، المسؤول عن سياسات العلوم والتكنولوجيا في البيت الأبيض إنّ «مرصد روبين هو استثمار في مستقبلنا، إذ يضع أسس المعرفة التي سيبني عليها أبناؤنا بفخر المستقبل». في وقت لاحق من هذا العام، سيبدأ مشروع «ذي ليغاسي سورفي أوف سبايس آند تايم» (المسح الإرثي للمكان والزمان)، الذي سيمسح السماء كل ليلة على مدار العقد المقبل، ملتقطاً أدق التغيرات بدقة لا مثيل لها. وسُمي مرصد «فيرا سي. روبين» تيمناً بعالمة الفلك الأمريكية التي اكتشفت المادة المظلمة، وهي مادة غامضة تعمل كغراء للمجرات، وتمنع النجوم من أن تُقذف خارجها. والطاقة المظلمة هي قوة غامضة مسؤولة عن تمدد الكون، يُعتقد أن الطاقة المظلمة والمادة المظلمة تُشكلان معاً 95% من الكون. ويُعتبر المرصد أيضاً من أقوى الأدوات لتتبع الكويكبات. وخلال عشر ساعات فقط رصد 2104 كويكباً جديداً في نظامنا الشمسي، منها سبعة كويكبات قريبة من الأرض ولا تُشكل أي تهديد. وترصد مختلف المراصد الأخرى مجتمعة، سواءً في الفضاء أو على الأرض، نحو 20 ألف كويكب جديد سنوياً. ويُفترض أن يكون «فيرا روبين» المرصد الأكثر فاعلية في رصد الأجرام بين النجمية التي تمر عبر نظامنا الشمسي.


صحيفة الخليج
منذ 20 ساعات
- صحيفة الخليج
ثقوب سوداء غامضة
تعد الثقوب السوداء من أكثر الأجسام عنفاً وتدميراً في الكون. وبقدر ما يبدو الأمر مرعباً، فإن ما يعرف بـ«الثقوب السوداء البدائية» يعد أكثر غموضاً، وأقرب إلى الخيال العلمي، فهي ليست تلك الثقوب السوداء الهائلة التي تبتلع النجوم وتحرق المجرات، وتظهر في أفلام الخيال العلمي، لكنها صغيرة للغاية لا يزيد حجمها على ذرة هيدروجين، وتتراوح كتلتها بين كتلة بكتيريا واحدة وكويكب متوسط الحجم، وتعد واحدة من الفرضيات العلمية الجادة التي قد تفسر واحداً من أكبر ألغاز الفيزياء الحديثة، ألا وهي المادة المظلمة. يعتقد العلماء أن هذه الثقوب لم تتشكل من انهيار النجوم الضخمة، كما هو الحال في السوداء التقليدية، بل ولدت بعد الانفجار العظيم. وقالت د. إلبا ألانسو-مونسالفي، من معهد ماساتشوستس للتكنولوجيا: هذه الثقوب تشكلت في أول 25 جزءاً من المليار من الثانية بعد الانفجار العظيم، وهو وقت مبكر جداً، حتى قبل تكون الجسيمات الأولية، ولأن هذه الثقوب لا تصدر إشعاعاً يذكر، فضلاً عن كونها صغيرة لدرجة تجعل رصدها شبه مستحيل، فهي تعد مرشحاً مثالياً لتفسير المادة المظلمة. ولا يتوقف البحث عن هذه الثقوب عند الفضاء، بل يمتد إلى داخل النظام الشمسي وحتى على الأرض. والاحتمال الأكبر هو أن يمر أحد هذه الثقوب داخل النظام الشمسي مرة كل عشر سنوات تقريباً. وعلى الرغم من أن هذه الثقوب تمر أحياناً عبر كوكب الأرض، بل وحتى أجسادنا، دون أن تزعج حتى خلاياه، فلا شيء يدعو للقلق، فالثقوب البدائية ذات الكتلة الصغيرة تمر دون ترك أثر يذكر، وهي خفيفة جداً لدرجة أن مرور ألف منها سنوياً عبر كل متر مربع من الأرض لا يسبب أي ضرر. ومع ذلك، قد يترك هذا المرور إشارات زلزالية دقيقة، أو أنفاقاً صغيرة في الصخور لا ترى إلا بتحليل خاص. ولا تزال هذه الفرضية قيد البحث.


البوابة العربية للأخبار التقنية
منذ يوم واحد
- البوابة العربية للأخبار التقنية
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟
يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة. ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟ لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها: ما استخدامات الذكاء الاصطناعي في الحماية؟ يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل: تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة. ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم. وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي. وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟ التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي: تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة. وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي. فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم. كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة. وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية. ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة. وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان. ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة. المراقبة على حساب الخصوصية: حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي. وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية. أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم. ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا. وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها. نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات: تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي: تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية. تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية. وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.