نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
هل يساعد الذكاء الاصطناعي في حماية الفئات الضعيفة أم يزيد من الأضرار التي تعانيها؟, اليوم الأحد 22 يونيو 2025 07:13 مساءً
يشهد العالم تبنيًا متسارعًا لتقنيات الذكاء الاصطناعي في مجالات تهدف إلى منع الإساءة وحماية الفئات الضعيفة، مثل: الأطفال في نظام الرعاية البديلة، والبالغين في دور رعاية المسنين، والطلاب في المدارس، إذ تَعد هذه الأدوات بالكشف الفوري عن المخاطر وتنبيه السلطات قبل وقوع أضرار جسيمة.
ولكن وراء هذا الوعد البراق، تكمن تحديات عميقة ومخاطر حقيقية، وتُثار تساؤلات جوهرية مثل: هل نحن بصدد بناء أنظمة حماية أكثر ذكاءً، أم أننا نعمل على أتمتة الأخطاء والتحيزات نفسها التي عانتها هذه الفئات لعقود؟
لذلك سنسلط في هذا التقرير الضوء على استخدامات الذكاء الاصطناعي في الحماية، والتحديات والمخاوف الأخلاقية التي تواجه استخدامه في هذا المجال الحساس، وكذلك الحلول التي يمكن تطبيقها:
ما استخدامات الذكاء الاصطناعي في الحماية؟
يوفر الذكاء الاصطناعي إمكانات كبيرة لتعزيز كفاءة وفعالية أنظمة الحماية الاجتماعية عند تطبيقه بحكمة، وتبرز استخداماته في عدة مجالات رئيسية، تشمل:
- تحليل الأنماط اللغوية: تُستخدم تقنيات معالجة اللغة الطبيعية لتحليل اللغة المكتوبة أو المنطوقة في الرسائل النصية، بهدف اكتشاف أنماط التهديد والتلاعب والسيطرة، مما قد يساعد في تحديد حالات العنف الأسري وتمكين السلطات من التدخل المبكر.
- النمذجة التنبؤية: تعتمد وكالات رعاية الأطفال على نماذج الذكاء الاصطناعي التنبئية لحساب مؤشرات الخطر لدى الأسر، مما يساعد الأخصائيين الاجتماعيين في ترتيب أولويات الحالات العالية الخطورة والتدخل مبكرًا.
- المراقبة: تساعد كاميرات المراقبة المدعومة بالذكاء الاصطناعي في حركات أطراف الأشخاص – وليس الوجوه أو الأصوات – لاكتشاف العنف الجسدي في مرافق الرعاية.
- دعم القرار: أثبتت هذه الأدوات قدرتها على مساعدة العاملين في المجال الاجتماعي على التدخل في وقت مبكر من خلال تزويدهم بتحليلات بيانات قد لا تكون واضحة بالعين المجردة.
ومع ذلك؛ تقدم الدكتورة أيسلين كونراد، الأستاذة المشاركة في مجال الخدمة الاجتماعية في جامعة أيوا، منظورًا نقديًا حول استخدام الذكاء الاصطناعي في حماية الفئات الضعيفة، وتستند رؤيتها إلى خبرتها الممتدة لما يصل إلى 15 عامًا في البحث حول العنف الأسري، إذ ترى أن الأنظمة القائمة، رغم نواياها الحسنة، غالبًا ما تخذل الأشخاص الذين من المفترض أن تحميهم.
وتشارك الدكتورة كونراد حاليًا في تطوير مشروع (iCare)، وهو نظام مراقبة مبتكر يعتمد على كاميرا مدعومة بالذكاء الاصطناعي، ويتميز هذا النظام بقدرته على تحليل حركات أطراف الأشخاص – بدلًا من الوجوه أو الأصوات – لاكتشاف مؤشرات العنف الجسدي.
وتطرح الدكتورة كونراد سؤالًا جوهريًا يقع في صميم النقاش حول مستقبل استخدام الذكاء الاصطناعي في مجال الرعاية الاجتماعية: هل يمكن للذكاء الاصطناعي فعلًا المساعدة في حماية الفئات الضعيفة، أم أنه مجرد أتمتة للأنظمة ذاتها التي طالما ألحقت بهم الضرر؟ ويعكس هذا التساؤل قلقًا مشروعًا بشأن قدرة التقنيات الجديدة على تجاوز قصور الأنظمة البشرية، أم أنها ستكرر أخطاءها وتحدياتها بطرق جديدة؟
التحديات الكبرى.. عندما ترث التكنولوجيا ظلم الماضي:
تُدرَّب العديد من أدوات الذكاء الاصطناعي على التعلم من خلال تحليل البيانات التاريخية، ومع ذلك، يكمن الخطر في أن التاريخ مليء بعدم المساواة والتحيز والافتراضات المغلوطة، وينعكس هذا الواقع أيضًا في البشر الذين يصممون أنظمة الذكاء الاصطناعي ويختبرونها، مما يؤدي إلى نتائج قد تكون ضارة وغير عادلة.
وبسبب هذه الانحيازات المتأصلة في البيانات ومن يصنعون الأنظمة، قد ينتهي المطاف بخوارزميات الذكاء الاصطناعي إلى تكرار أشكال التمييز المنهجية، مثل العنصرية أو التمييز الطبقي.
فعلى سبيل المثال، أظهرت دراسة أجريت عام 2022 في مقاطعة أليجيني في ولاية بنسلفانيا، أن نموذجًا للتنبؤ بالمخاطر، يهدف إلى تقدير مستويات الخطر لدى الأسر – وذلك عن طريق تقييمات تُعطى لموظفي الخطوط الساخنة لمساعدتهم في فرز المكالمات – كان يبلغ عن الأطفال السود للتحقيق بنسبة تزيد على 20% مقارنة بالأطفال البيض، لو اُستخدم النموذج بدون إشراف بشري، وعندما شارك الأخصائيون الاجتماعيون في عملية اتخاذ القرار، انخفضت هذه النسبة إلى 9%، مما يثبت أن الاعتماد الكلي على الآلة يضخم الظلم القائم.
كما يمكن للذكاء الاصطناعي القائم على اللغة أن يعزز التحيز أيضًا، فعلى سبيل المثال، أظهرت دراسة أخرى أن أنظمة معالجة اللغة الطبيعية أساءت تصنيف اللغة الإنجليزية العامية للأمريكيين من أصل أفريقي على أنها عدوانية بمعدل أعلى بكثير من اللغة الإنجليزية الأمريكية القياسية، وذلك بنسبة تصل إلى 62% أكثر في سياقات معينة.
وفي الوقت نفسه، وجدت دراسة أجريت عام 2023، أن نماذج الذكاء الاصطناعي غالبًا ما تجد صعوبة في فهم السياق، ويعني ذلك أن الرسائل التي تحتوي على نصوص ساخرة أو فكاهية، يمكن أن تُصنَّف بنحو غير صحيح على أنها تهديدات خطيرة أو علامات على الاستغاثة، وهو ما قد يؤدي إلى تدخلات غير ضرورية ومؤذية.
ويمكن أن تؤدي هذه العيوب إلى تكرار مشكلات كبيرة في أنظمة الحماية الاجتماعية، إذ لطالما خضع الملونون لرقابة مفرطة في أنظمة رعاية الأطفال، أحيانًا بسبب سوء الفهم الثقافي، وأحيانًا أخرى بسبب التحيزات المتجذرة.
وقد أظهرت الدراسات أن الأسر السوداء وأسر السكان الأصليين تواجه معدلات أعلى بنحو غير متناسب من البلاغات والتحقيقات والفصل الأسري مقارنة بالأسر البيضاء، حتى بعد أخذ الدخل والعوامل الاجتماعية والاقتصادية الأخرى في الحسبان.
ولا تنبع هذه التفاوتات الصارخة من مجرد أخطاء فردية، بل هي نتيجة للعنصرية المتأصلة في عقود من القرارات السياسية التمييزية، كما تساهم التحيزات الضمنية والقرارات التقديرية التي يتخذها الأخصائيون الاجتماعيون المثقلون بالأعباء في تفاقم هذه المشكلة.
المراقبة على حساب الخصوصية:
حتى عندما تنجح أنظمة الذكاء الاصطناعي في الحد من الأضرار التي تلحق بالفئات الضعيفة، فإنها غالبًا ما تفعل ذلك بتكلفة مقلقة، وتتجلى هذه التحديات في برنامج تجريبي أُجري عام 2022 في أستراليا، إذ ولد نظام كاميرات الذكاء الاصطناعي، الذي اُستخدم في دارين للرعاية أكثر من 12,000 تنبيه كاذب خلال عام واحد، وقد أرهق هذا العدد الضخم من الإنذارات غير الصحيحة الموظفين بنحو كبير، مما أدى إلى إغفال حادثة حقيقية واحدة على الأقل. ومع أن النظام قد أظهر تحسنًا في دقته بمرور الوقت، ولكن التدقيق المستقل خلص إلى أنه على مدى 12 شهرًا لم يحقق مستوى يُعدّ مقبولًا للموظفين والإدارة، مما يبرز الفجوة بين الوعود التقنية والواقع التشغيلي.
وتؤثر تطبيقات الذكاء الاصطناعي أيضًا في الطلاب، ففي المدارس الأمريكية، تُسوق أنظمة المراقبة بالذكاء الاصطناعي مثل: Gaggle، و GoGuardian، و Securly،كأدوات أساسية للحفاظ على سلامة الطلاب، إذ تُثبت هذه البرامج في أجهزة الطلاب بهدف مراقبة نشاطهم عبر الإنترنت وتحديد أي شيء مثير للقلق، ولكن ثبت أيضًا أنها تُشير إلى سلوكيات غير ضارة على أنها مثيرة للقلق، مثل: كتابة قصص قصيرة تحتوي على عنف خفيف، أو البحث عن مواضيع تتعلق بالصحة النفسية.
أما الأنظمة الأخرى التي تستخدم كاميرات وميكروفونات في الفصول الدراسية للكشف عن العدوانية، فغالبًا ما تُسيء تحديد السلوكيات الطبيعية، إذ تصنف سلوكيات طبيعية مثل: الضحك أو السعال على أنها مؤشرات خطر، مما يؤدي أحيانًا إلى تدخل غير مبرر أو إجراءات تأديبية قد تضر بالطلاب بدلًا من حمايتهم.
ولا تُعدّ هذه المشكلات التي تُظهرها أنظمة الذكاء الاصطناعي مجرد أخطاء فنية معزولة؛ بل هي انعكاس لعيوب عميقة في كيفية تدريب الذكاء الاصطناعي ونشره، إذ تتعلم هذه الأنظمة من البيانات السابقة التي اختارها وصنفها البشر، وهي بيانات غالبًا ما تعكس بوضوح عدم المساواة والتحيزات الاجتماعية القائمة في مجتمعاتنا.
وقد أوضحت ذلك الدكتورة فيرجينيا يوبانكس، عالمة الاجتماع، في كتابها (أتمتة عدم المساواة)، أن أنظمة الذكاء الاصطناعي تخاطر بنحو كبير بتوسيع نطاق هذه الأضرار الطويلة الأمد، بدلًا من معالجتها أو الحد منها.
نحو إطار عمل مسؤول.. مبادئ الذكاء الاصطناعي المستجيب للصدمات:
تعتقد الدكتورة أيسلين كونراد، أن الذكاء الاصطناعي لا يزال بإمكانه أن يكون قوة للخير، ولكن فقط إذا أعطى مطوروه الأولوية لكرامة الأشخاص الذين صُممت هذه الأدوات لحمايتهم، كما طوّرت الدكتورة كونراد إطار عمل يُسمى (الذكاء الاصطناعي المستجيب للصدمات)، ويقوم هذا الإطار على أربعة مبادئ أساسية، وهي:
- تحكم الناجين في المراقبة والبيانات: يجب أن يكون للأفراد وخاصة الخاضعين للمراقبة الحق في تقرير كيفية ووقت استخدام بياناتهم، مما يعزز الثقة ويشجع على الانخراط الإيجابي مع خدمات الدعم، كما يزيد هذا التحكم من تفاعلهم مع خدمات الدعم، مثل: إنشاء خطط مخصصة للحفاظ على سلامتهم أو الحصول على المساعدة اللازمة. ويضمن هذا النهج أن تعمل التكنولوجيا كأداة تمكين لا أداة مراقبة قسرية.
- الإشراف البشري: تُظهر الدراسات بوضوح أن الآلة لن تحل محل الحكم المهني والخبرة الإنسانية، لذلك يجب أن تظل قرارات التدخل النهائية في أيدي متخصصين قادرين على فهم السياق وتقييم الموقف بصورة شاملة.
- تدقيق التحيز لضمان الحيادية: يتوجب على الحكومات والمطورين إجراء اختبارات منتظمة لأنظمتهم للكشف عن التحيزات العرقية والاقتصادية وتقليلها، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (AI Fairness 360) من IBM، و(What-If Tool) من جوجل، و Fairlearn، في الكشف عن هذه التحيزات وتقليلها في نماذج التعلم الآلي قبل نشرها، مما يضمن أن الخوارزميات لا تُكرر أو تُضخم الانحيازات المجتمعية الموجودة في البيانات التاريخية.
- الخصوصية حسب التصميم: يجب بناء الأنظمة منذ البداية بهدف حماية الخصوصية، ويمكن أن تساعد الأدوات المفتوحة المصدر مثل: (Amnesia) من شركة OpenAI، و(Differential Privacy Library) من جوجل، و(SmartNoise) من مايكروسوفت، في إخفاء هوية البيانات الحساسة عن طريق إزالة المعلومات التعريفية أو إخفائها، بالإضافة إلى ذلك، يمكن استخدام تقنيات تعتيم الوجوه لإخفاء هوية الأشخاص في بيانات الفيديو أو الصور، مما يتيح تحليل البيانات دون المساس بالخصوصية الفردية.
تؤكد هذه المبادئ ضرورة بناء أنظمة تستجيب بالرعاية بدلًا من العقاب، وقد بدأت بعض النماذج الواعدة بالظهور، مثل: (التحالف في وجه برمجيات التتبع)، الذي يدعو إلى إشراك الناجين من التجسس الإلكتروني في جميع مراحل تطوير التكنولوجيا. كما أن التشريعات تؤدي دورًا حيويًا، ففي 5 مايو 2025، وقع حاكم ولاية مونتانا قانونًا يقيّد استخدام حكومة الولاية والحكومات المحلية للذكاء الاصطناعي في اتخاذ قرارات آلية بشأن الأفراد دون إشراف بشري هادف، ويطالب بالشفافية.
وفي نهاية المطاف، لن يتمكن الذكاء الاصطناعي من أن يحل محل القدرة البشرية الفريدة على التعاطف وفهم السياق. ولكن، إذا صُمم وطُبق وفقًا لمبادئ أخلاقية صارمة، فقد يصبح أداة تساعدنا في تقديم المزيد من الرعاية والحماية للفئات الضعيفة، لا المزيد من العقاب والمراقبة.
نسخ الرابط تم نسخ الرابط
0 تعليق