logo
تسريب 16 مليار سجل بيانات لتسجيل الدخول.. إليك الحقائق وكيف تحمي بياناتك؟

تسريب 16 مليار سجل بيانات لتسجيل الدخول.. إليك الحقائق وكيف تحمي بياناتك؟

كشفت تحليلات موقع (Cybernews) عن واحدة من أكبر عمليات تسريب بيانات تسجيل الدخول على الإطلاق، بإجمالي 16 مليار سجل بيانات، وهذه السجلات موزعة على أكثر من 30 قاعدة بيانات، والأهم من ذلك، أن هذه البيانات حديثة، وليست مجرد بيانات مُعاد تدويرها من اختراقات قديمة، وقد جُمعت باستخدام برامج سرقة المعلومات (infostealers) المتنوعة.
وقد أظهرت تحليلات شركة كاسبرسكي ارتفاعًا مقلقًا في عدد اكتشافات هجمات سرقة كلمات المرور عالميًا، إذ شهدت نموًا بنسبة بلغت 21% بين عامي 2023 و2024، ويعود السبب في هذا الارتفاع إلى أن برامج التجسس وسرقة المعلومات أصبحت من أكثر التهديدات الإلكترونية انتشارًا، إذ تستهدف ملايين الأجهزة حول العالم وتُعرّض البيانات الشخصية والشركات الحساسة للخطر.
وتعمل هذه البرامج الخبيثة على استخراج بيانات تسجيل الدخول مثل أسماء المستخدمين وكلمات المرور، وملفات تعريف الارتباط (Cookies)، ومعلومات حيوية أخرى، ثم تُجمع هذه البيانات في سجلات (logs)، وبعد ذلك يجري تداولها وبيعها عبر الإنترنت المظلم (Dark Web)، مما يجعلها متاحة للمجرمين السيبرانيين لشن هجمات أخرى مثل: الاحتيال أو الوصول غير المصرح به إلى الحسابات.
خبراء كاسبرسكي يحللون حجم التسريبات وطبيعتها:
في تحليل مفصل لحجم التسريبات، قالت ألكسندرا فيدوسيموفا، محللة البصمة الرقمية في كاسبرسكي: 'إن رقم 16 مليار سجل هو رقم يفوق تقريبًا ضعف عدد سكان الأرض، ومن الصعب تصديق أن هذا الكم الضخم من المعلومات قد سُرب'.
وأوضحت فيدوسيموفا، أن هذا التسريب لا يشير إلى اختراق واحد، بل إلى تجميع لما يصل إلى 30 خرقًا لبيانات المستخدمين من مصادر مختلفة، وقد جُمعت هذه البيانات أو السجلات عبر استخدام أدوات سرقة المعلومات (Infostealers)، وهي تطبيقات خبيثة متخصصة في سرقة البيانات، وتحدث مثل هذه الحوادث يوميًا تقريبًا.
وأشارت فيدوسيموفا إلى أن باحثي (Cybernews) قد جمعوا هذه البيانات على مدى ستة أشهر منذ بداية العام، ومن المحتمل أن تحتوي مجموعتهم على سجلات مكررة، وذلك بسبب مشكلة إعادة استخدام المستخدمين لكلمات المرور.
كما أشارت إلى أن الباحثون قد أكدوا أن جميع قواعد البيانات المكتشفة حديثًا لم يُبلغ عنها سابقًا، ولكنها أوضحت أن ذلك لا يعني بالضرورة أن هذه البيانات لم تتسرب من قبل من خدمات أخرى أو تُجمع عبر أدوات مختلفة لسرقة البيانات، مما يقلل بنحو كبير من عدد البيانات الفريدة والجديدة في هذا التجميع، ويجعل تحديد رقم دقيق صعبًا دون تحليل مفصل.
اقتصاد الجرائم الإلكترونية وتداول البيانات المسربة:
ألقى دميتري جالوف، رئيس فريق البحث والتحليل العالمي في كاسبرسكي (GReAT) في روسيا ورابطة الدول المستقلة، الضوء على طبيعة هذا التهديد قائلًا: 'تشير أبحاث (Cybernews) إلى تجميع لعدة تسريبات للبيانات خلال مدة طويلة، منذ بداية العام. ويعكس ذلك اقتصاد الجرائم الإلكترونية المزدهر، الذي تحولت فيه سرقة بيانات الاعتماد إلى عملية صناعية منظمة'.
وأكد جالوف أن ما نشهده هو جزء من سوق إلكتروني إجرامي راسخ، إذ تُجمع بيانات الدخول من خلال أدوات سرقة المعلومات، وهجمات التصيد الإلكتروني، وبرمجيات خبيثة أخرى، ثم تُجمع هذه البيانات، وتُثرى بمعلومات إضافية، وتُباع، وغالبًا ما تُباع عدة مرات. وأشار إلى أن هذه القوائم تُسمى باسم (قوائم الدمج)، وأكد أنها تُحدّث باستمرار، وتُعاد تغليفها، وتحقق منها جهات متعددة عبر الإنترنت المظلم أرباح.
وقد أشار جالوف إلى جانب مقلق بنحو خاص في هذه الحالة، وهو ادعاء (Cybernews) بأن مجموعات البيانات كانت متاحة بشكل علني مؤقتًا عبر قنوات غير آمنة، مما جعلها في متناول أي شخص صادفها.
توصيات خبراء كاسبرسكي لتعزيز النظافة الرقمية:
في ضوء هذه التهديدات المتزايدة، أكدت آنا لاركينا، خبيرة تحليل محتوى الإنترنت في كاسبرسكي، ضرورة التركيز على النظافة الرقمية ومراجعة جميع الحسابات الإلكترونية. ولحماية المستخدمين، تقدم لاركينا النصائح التالية:
تحديث كلمات المرور بانتظام: يجب استخدام كلمات مرور قوية وفريدة لكل حساب، والحرص على تغيير كلمات المرور بصورة دورية لتقليل مخاطر الوصول غير المصرح به.
يجب استخدام كلمات مرور قوية وفريدة لكل حساب، والحرص على تغيير كلمات المرور بصورة دورية لتقليل مخاطر الوصول غير المصرح به. تفعيل المصادقة الثنائية (2FA): يضيف تفعيل المصادقة الثنائية طبقة إضافية من الأمان لحسابات المستخدمين.
يضيف تفعيل المصادقة الثنائية طبقة إضافية من الأمان لحسابات المستخدمين. التواصل الفوري مع الدعم الفني: في حال وصول المهاجمين إلى الحسابات، يجب التواصل فورًا مع الدعم الفني لاستعادة السيطرة وتحديد مدى التسريب.
في حال وصول المهاجمين إلى الحسابات، يجب التواصل فورًا مع الدعم الفني لاستعادة السيطرة وتحديد مدى التسريب. استخدام مدير كلمات مرور موثوق: يمكن استخدام تطبيقات موثوقة لإدارة كلمات المرور، مثل: (Kaspersky Password Manager) لتخزين بيانات الاعتماد بأمان.
يمكن استخدام تطبيقات موثوقة لإدارة كلمات المرور، مثل: (Kaspersky Password Manager) لتخزين بيانات الاعتماد بأمان. اليقظة تجاه هجمات الهندسة الاجتماعية: يجب أن تظل حذر باستمرار، إذ قد يستغل المحتالون البيانات المسربة في أنشطة متعددة مثل التصيد الاحتيالي الموجه.
الخلاصة:
يؤكد الارتفاع الملحوظ في هجمات سرقة كلمات المرور ووجود كميات ضخمة من البيانات المسربة عبر الإنترنت المظلم، الأهمية القصوى لتبني ممارسات أمنية رقمية قوية. فمع استمرار ازدهار اقتصاد الجرائم الإلكترونية، يصبح من الضروري للأفراد والشركات على حد سواء اتخاذ خطوات استباقية لحماية بياناتهم الحساسة من خلال تحديث كلمات المرور، وتفعيل المصادقة الثنائية، واستخدام أدوات إدارة كلمات المرور، بالإضافة إلى الحفاظ على الوعي بمحاولات الهندسة الاجتماعية، فهذه الإجراءات ليست مجرد توصيات، بل هي ضرورة حتمية في مواجهة المشهد المتطور للتهديدات السيبرانية.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

نظام «هارموني أو إس» الصيني يجذب 8 ملايين مطور
نظام «هارموني أو إس» الصيني يجذب 8 ملايين مطور

البيان

timeمنذ 4 ساعات

  • البيان

نظام «هارموني أو إس» الصيني يجذب 8 ملايين مطور

قالت شركة «هواوي» الصينية، إن النظام الإيكولوجي لنظام تشغيل «هارموني أو إس»، المطور ذاتياً في الصين، يتوسع بسرعة، حيث يستخدمه حالياً أكثر من 8 ملايين مطور. وأضافت الشركة في بيانات أصدرتها خلال مؤتمر مطوري «هواوي»، أن أكثر من 30 ألف تطبيق «هارموني أو إس» وخدمات «ميتا»، هي قيد التطوير أو تلقّي التحديثات، حيث تغطي نحو 20 قطاعاً، تشمل الشؤون الحكومية والرعاية الصحية والتطبيقات الصناعية، فيما تم تكييف أكثر من 100 منصة إنتاجية رئيسة، مثل «دينغ توك» و«فيشو»، من أجل نظام تشغيل «هارموني أو إس»، ما يخدم نحو 38 مليون شركة. وتم في 25 سبتمبر 2023، إطلاق تطبيقات «هارموني أو إس» بشكل كامل، ما يمثل بداية تطوير النظام الإيكولوجي المستقل لنظام التشغيل المذكور. وكشفت «هواوي»، خلال المؤتمر، عن الإصدار التجريبي المطور لنظام التشغيل من الجيل التالي «هارموني أو إس 6». وبالإضافة إلى ذلك، أطلقت الشركة إطار عمل وكيل هارموني لنظامها الإيكولوجي «هارموني أو إس»، الذي يستعد لإنشاء نظام إيكولوجي رائد للذكاء الاصطناعي، يتميز بصنع القرار بشكل ذاتي، وقدرات تعاون جماعي. ويعتبر نظام «هارموني أو إس»، أو «هونغمنغ» باللغة الصينية، نظام تشغيل مفتوح المصدر، مصمماً لمختلف الأجهزة والسيناريوهات، تم إطلاقه في الأصل في عام 2019، ليتم تطبيقه منذ ذلك الحين عبر الهواتف الذكية والأجهزة اللوحية والأجهزة القابلة للارتداء والأجهزة المنزلية الذكية، ومركبات الطاقة الجديدة.

«كاسبرسكي»: 21% زيادة في اكتشاف هجمات سرقة كلمات المرور
«كاسبرسكي»: 21% زيادة في اكتشاف هجمات سرقة كلمات المرور

صحيفة الخليج

timeمنذ 5 ساعات

  • صحيفة الخليج

«كاسبرسكي»: 21% زيادة في اكتشاف هجمات سرقة كلمات المرور

تُظهر قراءات «كاسبرسكي»، أن هناك نمواً بنسبة 21% في عدد اكتشافات هجمات سرقة كلمات المرور على مستوى العالم بين عامي 2023 و2024. وأصبحت برامج التجسس وسرقة المعلومات من أكثر التهديدات الإلكترونية انتشاراً، حيث تستهدف ملايين الأجهزة حول العالم وتعرض البيانات الشخصية والشركات الحساسة للخطر. تم تصميم هذه البرامج الخبيثة لاستخراج بيانات تسجيل الدخول وملفات تعريف الارتباط (Cookies) ومعلومات مهمة أخرى، ثم تُجمع هذه البيانات في ملفات سجلات ويتم تداولها على الإنترنت المظلم. قالت ألكسندرا فيدوسيموفا، محللة البصمة الرقمية في كاسبرسكي: «إن رقم 16 مليار سجل هو رقم يفوق تقريباً ضعف عدد سكان الأرض، ومن الصعب تصديق أن هذا الكم الهائل من المعلومات قد تم تسريبه. يشير هذا «التسريب» إلى تجميع لـ30 خرقاً لبيانات المستخدمين من مصادر مختلفة. وقد تم الحصول على هذه البيانات (أو السجلات) بشكل أساسي من قبل مجرمي الإنترنت عبر أدوات سرقة المعلومات -وهي تطبيقات خبيثة تسرق البيانات- وتحدث مثل هذه الحوادث بشكل يومي. وقام باحثو Cybernews بجمع هذه البيانات على مدى ستة أشهر منذ بداية العام. ومن المحتمل أن تحتوي مجموعتهم على سجلات مكررة، بسبب مشكلة إعادة استخدام كلمات المرور من قبل المستخدمين. لذلك، وعلى الرغم من أنه تمت الإشارة إلى أن أياً من قواعد البيانات المكتشفة لم يتم الإبلاغ عنها سابقاً، إلا أن هذا لا يعني أن هذه البيانات لم تتسرب سابقاً من خدمات أخرى أو تم جمعها بواسطة أدوات سرقة بيانات أخرى. وهذا يقلل بشكل كبير من عدد البيانات الفريدة والجديدة في هذا التجميع». قوائم دمج قال دميتري جالوف، رئيس فريق البحث والتحليل العالمي لدى كاسبرسكي (GReAT) في روسيا ورابطة الدول المستقلة: «تشير أبحاث Cybernews إلى تجميع عدة تسريبات للبيانات على مدى فترة طويلة منذ بداية العام. وهذا يعكس اقتصاد الجرائم الإلكترونية المزدهر، الذي أصبح فيه سرقة بيانات الاعتماد عملية صناعية. ما نشهده هو جزء من سوق إلكتروني إجرامي راسخ، حيث تُجمع بيانات الدخول من خلال أدوات سرقة المعلومات، وهجمات التصيد الإلكتروني، وبرمجيات خبيثة أخرى، ثم يتم جمعها، وإثراؤها، وبيعها، وغالباً ما تُباع عدة مرات.

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

البوابة العربية للأخبار التقنية

timeمنذ 8 ساعات

  • البوابة العربية للأخبار التقنية

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة. ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟ لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها: ما استخدامات الذكاء الاصطناعي في الحماية؟ يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل: تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة. ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم. وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي. وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟ التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي: تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة. وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي. فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم. كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة. وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية. ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة. وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان. ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة. المراقبة على حساب الخصوصية: حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي. وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية. أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم. ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا. وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها. نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات: تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي: تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية. تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية. وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store