تخضع النماذج اللغوية الخاصة بالذكاء الاصطناعي لتدريبات مكثفة على مجموعة بيانات، تعود إلى قائمة كبيرة من المصادر المتنوعة أبرزها وسائل الإعلام الرقمية ووسائل التواصل الاجتماعي، التي تضخ في كل منهما آراء ووجهات نظر حول قضايا عالمية كبرى مثل تغيير المناخ والحروب والتسليح، والقضايا الاجتماعية مثل الإجهاض وزواج المثليين والجرائم والعقوبات، وحتى تلك المتعلقة بالعمل مثل الفجوات الكبيرة بين الأجور والضرائب وغيرها، وتتشبع هذه الآراء بالديمقراطية وتنوع الأفكار من جهة، وقد تكون ذاخرة بالتعميمات النمطية والتحيزات الاجتماعية من جهة أخرى.
خطاب الكراهية
وفي الوقت الذي نطمح فيه للوصول إلى نماذج تملك قدراً جيداً من العدالة، يجب التنبه إلى سلوكيات مثل بث خطاب الكراهية وكشف المعلومات الخاطئة والأخبار المضللة. ففي وقت تتعالى الأصوات من أجل فرض المزيد من الإجراءات على منصات التواصل الاجتماعي للتعامل مع خطاب الكراهية، يتضح لنا تدريجاً أن الأمر ليس بهذه السهولة، فتقييم اللغة على أساس الإساءة، يعتمد بالأصل على هوية القائل نفسه، إذ إن استخدام شخص ما لمصطلح يصفه هو نفسه لا يعتبر إساءة، أي أن يتحدث رجل أسمر عن ذوي البشرة الداكنة يصنف في إطار التعبير الطبيعي، بينما لا يعد كذلك في حال صدر عن رجل أبيض. ولكن بعد إخضاع بعض هذه الأنظمة لاختبارات على مجموعة كبيرة من البيانات، تبين أن أنظمة الذكاء الاصطناعي بصيغتها الحالية لا تستطيع أن تفهم وتميز هذه الفروق الدقيقة، بالتالي لا تستطيع أن تصنف المحتوى بشكل صحيح من هذه الناحية، الأمر الذي من الممكن أن يعرض فئات معينة مثل الأقليات لمزيد من ممارسات التحيز السلبية.
التحيز
إضافة إلى ضرورة التنبه إلى أخطار التحيز في السياسة والمراقبة الأمنية والطب والقضايا الاجتماعية، فعلى رغم ما يمتلكه الذكاء الاصطناعي من قدرات تثبتها النتائج كل يوم، إلا أن هناك العديد من التحديات الناتجة من التحيز، والتي يعد أغلبها غير مقصود بل ناتج من مراقبة النماذج للأنماط السلوكية للبشر وتكرار ردود الفعل لمجموعة جندرية أو عرقية معينة.
الأربعاء 25 ديسمبر 2024