شهد العالم أربع ثورات صناعية كبرى غيّرت حياة البشر جذرياً. بدأت الثورة الأولى باختراع المحرك البخاري (القرن الثامن عشر)، تلتها الثانية بالكهرباء وخطوط الإنتاج (القرن التاسع عشر)، ثم الثالثة بالتقنية والرقمنة والحواسيب والإنترنت (منتصف القرن العشرين). اليوم، نحن نعيش في قلب الثورة الصناعية الرابعة، التي تتميز بالسرعة والاعتماد على تقنيات الذكاء الاصطناعي، والروبوتات، والبيانات الضخمة، والهندسة الوراثية. هذه الثورة لا تغيّر الإنتاج فحسب، بل تؤثر في تفاصيل حياتنا اليومية، ما يبرز التساؤل: متى يمكن أن يخرج الذكاء الاصطناعي عن السيطرة؟
أصبح الذكاء الاصطناعي حاضراً بشكل واضح في حياتنا، فنحن نعتمد على الخوارزميات الذكية في طلب السيارات والطعام (من شركات التوصيل وتطبيقات توصيل الطعام)، ومشاهدة التوصيات الشخصية على منصات البث المرئي ومنصات عرض الفيديوهات. في القطاع الصحي بالإمارات، يُستخدم لتسريع التشخيص الطبي وتحليل صور الأشعة، كما اعتمدت بعض الجامعات أنظمة تعليم ذكية تقدم محتوى مخصصاً لكل طالب.
هذا التسهيل يقابله ضعف في القدرات الذهنية للإنسان، نتيجة الاعتماد المفرط، فالطلاب الذين يعتمدون على أدوات الذكاء الاصطناعي للحصول على إجابات جاهزة يفقدون تدريجياً مهارات البحث والتحليل المستقل. وكشفت تقارير لوكالة أنباء عالمية عن تعرض شركات تأمين للاحتيال، عبر صور ومقاطع مفبركة بالذكاء الاصطناعي، ما يوضح أن الثقة المطلقة في هذه التقنية قد تؤدي إلى خسائر ضخمة. هذا التناقض يجسد الخط الفاصل: كيف يكون الذكاء الاصطناعي أداة لتسهيل الحياة ولإضعاف التفكير البشري في آن واحد؟
رغم أن الذكاء الاصطناعي صُمم لخدمة الإنسان، لكن استغلاله في الجرائم كشف عن وجهه المظلم. أبرز مثال هو التزييف العميق، وهي تقنية تولّد مقاطع صوتية ومرئية يصعب تمييزها عن الحقيقة، ففي 2024، تعرضت شركة في هونغ كونغ للاحتيال بملايين الدولارات، عبر تقليد الذكاء الاصطناعي لأصوات وصور المديرين التنفيذيين في مكالمة فيديو مزيفة.
الأمم المتحدة حذرت عام 2025 من خطورة التزييف العميق على العملية الديمقراطية والانتخابات.
وأشـــار مـــعهد بروكــــينــــــغـز إلى أن الذكــــاء الاصطناعي، قد يتحول إلى أداة تضليل واسعة إذا لم يتم تقنينه، ووُثقت في الولايات المتحدة تسجيلات صوتية مزيفة نُسبت لسياسيين للتأثير في الناخبين. وفي العالم العربي، ظهرت تقارير عن مزارع احتيال رقمية تستخدم الذكاء الاصطناعي لتوليد هويات ورسائل مزيفة.
يرفع الذكاء الاصطناعي من خطورة الهجمات السيبرانية، باستخدامه لتطوير برمجيات خبيثة وصياغة رسائل التصيد والاحتيال المتقنة، وهو ما أكده مكتب التحقيقات الفيدرالي في 2024، بالإشارة إلى زيادة الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي.
الخروج عن السيطرة لا يعني سيناريوهات الخيال العلمي للروبوتات المتمردة، فالمخاطر الحقيقية تكمن في التوسع غير المنضبط في استخدام الذكاء الاصطناعي والاعتماد المفرط على الخوارزميات دون مراجعة بشرية كافية.
يتوقع الخبراء، مع نهاية 2025، أن يشهد عام 2026 انفجاراً في قدرات الذكاء الاصطناعي ودمجه في كل القطاعات الحيوية، مثل الصحة والتعليم والنقل والطاقة، وتضاعف الاستثمار في هذا المجال سيعيد صياغة الصناعات جذرياً، لكن هذا التوسع قد ترافقه ضغوط على الموارد، وزيادة في البطالة، ومخاطر أمنية متنامية.
سيناريو عملي مُحتمل: لو اعتمدت حكومة ما على الذكاء الاصطناعي لإدارة القروض والإعانات، قد تبدأ الخوارزميات، بمرور الوقت، في الاعتماد على بيانات قديمة أو متحيزة، فترفض طلبات شرائح واسعة من المجتمع دون سبب عادل. ومع غياب الرقابة البشرية، تتحول الأخطاء الصغيرة إلى أزمة اجتماعية كبيرة. هذا يوضح أن فقدان السيطرة هو تراكم لنتائج غير منضبطة للتوسع. غياب القوانين الواضحة سيؤدي إلى أزمات أخلاقية واجتماعية، وقد يُرسخ التحيزات ويخلق فجوات اجتماعية جديدة.
الإمارات من أوائل الدول التي وضعت خططاً واضحة للذكاء الاصطناعي. في 2017، أطلقت الاستراتيجية الوطنية للذكاء الاصطناعي 2031، وعينت أول وزير للذكاء الاصطناعي في العالم. تهدف الاستراتيجية لجعل الإمارات مركزاً عالمياً للذكاء الاصطناعي، عبر الاستثمار في البنية التحتية الرقمية، والتعليم، والتشريعات المرنة. على أرض الواقع، تستخدم شرطة دبي وأبوظبي أنظمة للتنبؤ بالجرائم، وتعتمد المستشفيات الذكاء الاصطناعي لتسريع التشخيص، وتبنت أدنوك أنظمة ذكاء اصطناعي مستقلة لإدارة قطاع الطاقة. هذه الأمثلة تؤكد أن الإمارات تقود التطور مع التركيز على تحويل المخاطر إلى فرص.

