تحذير من 3 سيناريوهات قاتمة.. هل يفقد البشر السيطرة على الذكاء الاصطناعي؟

كشف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن ثلاثة سيناريوهات مرعبة متعلقة بالذكاء الاصطناعي تُبقيه مستيقظًا ليلاً، مشيرًا إلى أن الخطر الأكبر يتمثل في وصول "شخص شرير" إلى الذكاء الخارق قبل بقية العالم، مما قد يؤدي إلى استخدامه بطرق كارثية قبل أن تتاح الفرصة لأي طرف آخر لمقاومته أو حتى فهمه.
حينما يحصل "الشر" على الذكاء الخارق أولاً
أول ما يؤرق ألتمان هو سيناريو يبدو مستوحى من أفلام الخيال العلمي، لكنه في نظره احتمال واقعي أن يتمكن شخص أو جهة ذات نوايا خبيثة من الوصول إلى نسخة متقدمة جدًا من الذكاء الاصطناعي تُعرف بـ "الذكاء الخارق"، قبل أن تتمكن بقية الدول أو المجتمعات من تطوير أدوات دفاعية لمواجهة تبعاته وبحسب تصريحاته، فإن هذه الفجوة الزمنية بين اختراع التقنية وفهمها أو السيطرة عليها قد تكون كافية لحدوث أضرار كارثية يصعب احتواؤها.
أنظمة ذكية تتصرف من تلقاء نفسها
يتمثل القلق الثاني في احتمالية فقدان السيطرة على أنظمة الذكاء الاصطناعي، حيث وصف ألتمان سيناريو تخيليًا قد يتحقق فيه أن ترفض الأنظمة الذكية تنفيذ الأوامر أو تبدأ في اتخاذ قراراتها بشكل مستقل، بما يُشبه "التمرد البرمجي"، ودفعت هذه المخاوف شركة OpenAI، منذ عامين، إلى تأسيس وحدة خاصة هدفها الوحيد هو وضع بروتوكولات أمان تمنع الذكاء المتقدم من الانحراف أو التمرد مستقبلاً.
الذكاء الاصطناعي قد يُدير المجتمع دون أن نعلم
أما التهديد الثالث الذي يُثير قلق ألتمان فهو الاندماج غير المرئي للذكاء الاصطناعي في المجتمع، تخيل أن تتسلل هذه الأنظمة الذكية تدريجيًا إلى قلب القرارات اليومية من الاقتصاد وحتى السياسات الحكومية دون أن ندرك كيف تعمل فعليًا، ويرى ألتمان أن الخطورة تكمن في أن نُسلم، كمجتمع، أدوات القرار لنظام يتطور ويتعلم من البشر، لكننا لا نعرف على وجه اليقين كيف يتخذ قراراته.