logo
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة.
ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟
لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها:
ما استخدامات الذكاء الاصطناعي في الحماية؟
يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل:
تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر.
تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا.
تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية.
تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة.
ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم.
وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي.
وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟
التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي:
تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة.
وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي.
فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم.
كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة.
وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية.
ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة.
وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان.
ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة.
المراقبة على حساب الخصوصية:
حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي.
وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية.
أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم.
ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا.
وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها.
نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات:
تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي:
تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية.
يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة.
تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية.
يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية.
تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية.
وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

ذكاء اصطناعي.. تمكين بلا تفريط
ذكاء اصطناعي.. تمكين بلا تفريط

صحيفة الخليج

timeمنذ ساعة واحدة

  • صحيفة الخليج

ذكاء اصطناعي.. تمكين بلا تفريط

في خضم التحولات التكنولوجية المتسارعة، تبرز دولة الإمارات العربية المتحدة كنموذج عالمي ريادي، في تبني وتطوير تقنيات المستقبل، وعلى رأسها الذكاء الاصطناعي. ويأتي هذا التوجه ضمن رؤية طموحة تتجلى في «نحن الإمارات 2031»، حيث يُعد الذكاء الاصطناعي ركيزة أساسية في رسم ملامح الاقتصاد المعرفي والمجتمع المتطور. لقد أحدثت هذه التقنية ثورة في مختلف القطاعات، من تحليل البيانات إلى إنتاج المحتوى، مروراً بالتصميم، والتعليم، والصناعة، فما كان يتطلب أياماً من الجهد اليدوي، أصبح اليوم يُنجز في دقائق معدودة بدقة تفوق في بعض الأحيان العمل البشري التقليدي. باتت هذه الأدوات تتيح للمعلم إعداد تقرير، وللمصمم إنتاج مواد احترافية، وللكاتب جمع وتحليل مصادر معرفية.. وكل ذلك بكفاءة مذهلة وكلفة منخفضة. لكن هذا التقدم، ورغم ضرورته، يفرض علينا وقفة تأملية، فثمة قلق متزايد من الاعتماد المفرط على الذكاء الاصطناعي، وهو ما قد يؤدي إلى تراجع قدرات الإنسان الذهنية، ففي المجال التعليمي، يلاحظ بعض المعلمين أن الطلبة ينجزون مشاريعهم، عبر أدوات الذكاء الاصطناعي، من دون فهم حقيقي لما يكتبون، ما يؤدي إلى ضعف في التفكير التحليلي والتعبير الكتابي. حدثني أحدهم عن طالب أخفق في كتابة فقرة واحدة بالامتحان رغم تفوقه في الأبحاث، قائلاً: «لم يكن ضعيفاً.. فقط اعتاد ألا يفكر». تشبيه العقل بالعضلة ليس مجازاً إنشائياً، بل حقيقة علمية. التفكير، التخيل، النقد، التقييم، والاستنتاج، هي تمارين عقلية أساسية لا يمكن إغفالها من دون عواقب. وإذا تحوّل الذكاء الاصطناعي من أداة مساعدة إلى بديل ذهني، فإننا نخسر جوهر ما يجعل الإنسان مبدعاً ومفكراً. ولا يقتصر الخطر على «هلوسة الذكاء الاصطناعي» — أي تقديمه لمعلومات غير دقيقة — بل يمتد إلى إضعاف الحافز العقلي لدى الفرد، وقد عبّر عن ذلك سام ألتمان، الرئيس التنفيذي لشركة «OpenAI»، بقوله: «الذكاء الاصطناعي هو آخر اختراعات البشر»، مشيراً إلى أن الإنسان قد يتخلى طوعاً عن دوره في التفكير والابتكار، تاركاً المهمة للخوارزميات. استشعاراً لهذا التحول، بدأت دول ومؤسسات باتخاذ خطوات تنظيمية حكيمة. على سبيل المثال، أقرت جامعة هارفارد سياسة تمنع استخدام الذكاء الاصطناعي في الأبحاث دون تصريح، وأطلقت سنغافورة منصات لتدريب الطلبة على التمييز بين المحتوى البشري والآلي، وتوصي «اليونسكو» بإدماج التربية الأخلاقية الرقمية ضمن المناهج التعليمية. أما في الإمارات، فريادتها في مجال الذكاء الاصطناعي، لا تعني فقط التفوق التكنولوجي، بل تحمل أيضاً مسؤولية بناء نموذج أخلاقي وتربوي متكامل. نحن بحاجة إلى ميثاق وطني للاستخدام المسؤول، يحدد متى وأين وكيف نستخدم هذه الأدوات، وخاصة في قطاعات مثل التعليم، الصحافة، والبحث العلمي. ولتجنب الانزلاق نحو الاعتمادية الذهنية، يمكن تبني ممارسات بسيطة لكنها فعالة، مثل تخصيص وقت يومي للتفكير أو الكتابة من دون أدوات ذكية، وتوظيف الذكاء الاصطناعي في المهام التكميلية فقط، كتجميع البيانات أو التلخيص، لا في صياغة الرأي أو اتخاذ القرار. ختاماً، الذكاء الاصطناعي قادم بقوة، وهو بلا شك منجز بشري عظيم، لكن التحدي الحقيقي لا يكمن في تطوره، بل في كيفية تعاملنا معه. فلنحرص أن يكون أداة تمكين لا استبدال، وأن نظل مفكرين لا متلقين، ليظل الإبداع البشري في قلب المعادلة، لا على هامشها. *مدرب ومحاضر في القيادة والابتكار وريادة الأعمال

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

البوابة العربية للأخبار التقنية

timeمنذ 3 ساعات

  • البوابة العربية للأخبار التقنية

هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟

يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة. ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟ لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها: ما استخدامات الذكاء الاصطناعي في الحماية؟ يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل: تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر. النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا. المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية. دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة. ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم. وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي. وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟ التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي: تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة. وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي. فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم. كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة. وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية. ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة. وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان. ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة. المراقبة على حساب الخصوصية: حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي. وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية. أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم. ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا. وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها. نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات: تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي: تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية. الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة. تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية. الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية. تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية. وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.

كيف تتعلم مهارات استخدام الذكاء الاصطناعي لتعزز فرصك في سوق العمل؟
كيف تتعلم مهارات استخدام الذكاء الاصطناعي لتعزز فرصك في سوق العمل؟

البوابة العربية للأخبار التقنية

timeمنذ 6 ساعات

  • البوابة العربية للأخبار التقنية

كيف تتعلم مهارات استخدام الذكاء الاصطناعي لتعزز فرصك في سوق العمل؟

في الوقت الذي تُسرّع فيه الشركات وتيرة اعتماد الذكاء الاصطناعي عبر استثمارات ضخمة، ما يزال الكثير من الموظفين لا يعرفون شيئًا عن هذه التقنية. ووفقًا لتقرير صادر عن مؤسسة Gallup، فإن ثلثي الموظفين لا يستخدمون الذكاء الاصطناعي مطلقًا في وظائفهم، ويستخدمه 4% فقط يوميًا. وهذا الواقع يُعمّق الفجوة بين من يواكبون التطورات التقنية ومن يواجهون خطر التخلف المهني. أصبح تعلم الذكاء الاصطناعي ضرورة لأي شخص يسعى للنمو المهني، وفي دراسة حديثة، أظهرت النتائج أن تعلم مهارات الذكاء الاصطناعي يزيد الرواتب بنسبة تصل إلى 56%. هناك الكثير من الطرق والفرص المتاحة لتعلم أساسيات التعامل مع هذه التقنية، وفي هذا المقال سنعرض أهم الطرق التي يمكنك اتباعها لاكتساب مهارات في مجال الذكاء الاصطناعي، بغض النظر عن دورك الوظيفي أو خبرتك التقنية. ابدأ بالدورات الاحترافية المجانية أصبح تعلم الذكاء الاصطناعي أسهل من أي وقت مضى بفضل الدورات المجانية التي تقدمها مؤسسات رائدة مثل: OpenAI و Anthropic. إذ تُقدم أكاديمية OpenAI ورشًا تعليمية بإشراف خبراء، بالإضافة إلى توفير محتوى تطبيقي وتفاعلي عبر الإنترنت. كما أطلقت Anthropic دورة (الطلاقة في الذكاء الاصطناعي) AI Fluency بالشراكة مع أساتذة جامعيين، بهدف تعليم المهارات العملية لاستخدام الذكاء الاصطناعي وليس فقط تحسين طريقة كتابة الأوامر النصية. فالهدف ليس مجرد معرفة كيف تطرح أسئلة على أدوات الذكاء الاصطناعي، بل كيف تحكم على نتائجه، ومتى تثق بها ومتى يجب أن يكون هناك تدخل بشري. ابدأ باستخدام أدوات الذكاء الاصطناعي للمهام البسيطة يمكن للجميع الاستفادة من أدوات الذكاء الاصطناعي بطرق مختلفة، وفي بيئة العمل يمكنك استخدام هذه الأدوات للمساعدة في أداء المهام المتكررة بسرعة وكفاءة، مثل: كتابة الردود على رسائل البريد الإلكتروني، وتحليل البيانات، وإعداد المحتوى أو تقارير البحث. كن جزءًا من المجتمعات المهتمة بالذكاء الاصطناعي الانضمام إلى مجتمعات تعليمية أو نقاشية، سواء على الإنترنت أو في محيطك المهني، سيساعدك في تبادل المعرفة والتجارب الواقعية. ابحث في LinkedIn أو Discord عن مجموعات تهتم بتطبيقات الذكاء الاصطناعي المفيدة لمجال عملك، أو بادر بإنشاء مجموعة داخل شركتك لتبادل الخبرات. تعلم فن صياغة المطالبات الذكاء الاصطناعي لا يفهم النوايا، بل يستجيب للتعليمات النصية. وهنا تأتي أهمية ما يُسمى (هندسة الأوامر) Prompt Engineering. فبدلاً من قول: 'اكتب لي رسالة'، عليك كتابة: 'اكتب رسالة رسمية لعميل تغيّب عن اجتماعنا، مع نبرة ودودة، واقتراح موعد جديد للاجتماع معه الأسبوع القادم'. وكلما زاد وضوح تعليماتك، كانت النتائج أفضل، ولتحسين مهاراتك في كتابة المطالبات اقرأ أمثلة جاهزة تشاركها المجتمعات المتخصصة، وأنشئ مكتبة شخصية تحتوي على نماذج فعالة قابلة للتعديل، وجرّب باستمرار تغيير أسلوبك في كتابة المطالبات لتقييمها وتحديد الأسلوب الأفضل. ادمج الأدوات في عملك تدريجيًا ابدأ بإنجاز مهام بسيطة أسبوعيًا بمساعدة أدوات الذكاء الاصطناعي المتاحة، كتلخيص وثيقة أو إعداد جدول اجتماع. وبمرور الوقت، ستشعر بالثقة بالذكاء الاصطناعي؛ مما يجعلك تستخدمه في المهام المعقدة. من ناحية أخرى، جرّب استخدام أدوات الذكاء الاصطناعي لتوليد أفكار جديدة أو إيجاد حلول بديلة لمشكلات مزمنة، واطلب منها تقديم رؤى مختلفة لمشكلة مالية، أو ابتكار طرق جديدة لأداء مهمة تقليدية. تابع كل ما هو جديد فيما يتعلق بأدوات الذكاء الاصطناعي التقنيات الجديدة تظهر يوميًا، ولتبقى مطّلعًا على كل ما هو جديد فيما يتعلق بأدوات الذكاء الاصطناعي خصص وقتًا أسبوعيًا (15 دقيقة مثلًا) لاستكشاف أدوات جديدة، واشترك في نشرات بريدية وتابع مدونات الشركات التقنية، وجرّب النسخ المجانية للأدوات الجديدة قبل اعتمادها في عملك. قيّم تأثير استخدام أدوات الذكاء الاصطناعي على إنتاجيتك للتحقق من أن استخدام الذكاء الاصطناعي يساعدك في تعزيز إنتاجيتك وتطوير عملك، قيّم تأثيره بعدة طرق، مثل: قياس الوقت المختصر في أثناء إنجاز مهام العمل. جودة العمل: كأن تتحقق من جودة التقارير التي تُعدّها كونها تحسنت بعد استخدام أدوات الذكاء الاصطناعي أم لا. قياس التغييرات في كمية العمل المنجزة في وقت محدد قبل استخدام الذكاء الاصطناعي وبعده. تحقق من أن استخدام الذكاء الاصطناعي في البحث خفّض زمن إعداد التقارير والوصول إلى البيانات أم لا. طوّر مهارات التفكير النقدي وتعرّف أخلاقيات استخدام الذكاء الاصطناعي ليست كل المعلومات التي تقدمها أدوات الذكاء الاصطناعي صائبة أو حيادية، لذلك تنبغي معرفة متى يجب إجراء تحقق بشري، وكيفية التعامل مع الانحيازات المحتملة. بالإضافة إلى ذلك، اطلع على المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي في مجال عملك، وطوّر قدرتك على التمييز بين الاستخدام الفعّال والاستخدام المفرط أو الخطأ.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store