أصدرت مجلة (نيو يورك بوست) مقالًا تشرح من خلاله كيف يمكن للذكاء الاصطناعي أن يؤدي إلى هلاك البشرية. إن هلاك البشرية بواسطةالـ AI هي مسألة تم طرحها في أكثر من مناسبة، وهناك من يتفق معها ومن لا يتفق معها. فعلى سبيل المثال (إلون ماسك) يرى أن الذكاء الإصطناعي أخطر من الأسلحة النووية ويمكنه أن يدمر العالم. بينما أشخاص مثل (بيل غيتس) يرى أن الـ AI غير قادر على فعل ذلك في أسوأ سيناريو له. فهل يمكن للذكاء الاصطناعي أن يسرع عملية هلاك البشرية؟
ما الفكرة المطروحة؟
من أجل مناقشة الموضوع يجب طرح أطروحة أساسية والتي تنص على: أن الـ AI لا يستطيع إنهاء البشرية، لكنه يسرع عملية التفكير والإنجاز، مما يعني أن صناعة أداة لتدمير البشرية في 5 سنوات قد تتحول لـ 5 أيام بمساعدة الذكاء الاصطناعي.
الفكرة التالية تطرح أمامنا الكثير من التساؤلات أولها عن أخلاقيات الـ AI وكيف يعمل. يمكننا تجاوز كل هذا إن حصرنا أخلاقيات الذكاء الاصطناعي في الاستخدامات العادية. لكن هنا تأتي الكارثة !
(سام آلتمان) يُعطي الضوء الأخضر لاستخدام شات جي بي تي في مجال الأسلحة والحروب
تقرير (نيو يورك بوست) يستند على التغيير الأخير الذي أجراء سام آلتمان على منصة الـ AI الأشهر ChatGPT . التعديل ينص على أنه يمكن الآن للجهات الحربية والعسكرية استخدام ChatGPT لتطوير خدماتها، وذلك سعيًا للمال لأن الجهات العسكرية ستدفع أكثر مقابل هذا النوع من الخدمات.
هذا يعني أن صناعة الأسلحة والتخطيط للهجمات الحربية وحتى حل مشاكل حربية تكتيكية يمكنها أن تصبح أسهل بل وأفضل باستخدام ChatGPT والـ AI.
وهنا تتأكد الأطروحة الأساسية: باستخدام الـ AI يمكن تسريع تطوير الأسلحة مما يؤدي لكثرة الحروب ثم هلاك الناس ونهاية البشرية.
ما الحلول المتاحة بين أيدينا لإيقاف الذكاء الاصطناعي ؟
يوجد الكثير من الحلول بين أيدينا، مشكلة هذه الحلول أنها دائمًا ما تزعج طرفًا محددًا وبالتالي لا يمكن الموافقة عليها. من الحلول التي طرحتها مجلة (نيويورك بوست) والمقتبسة من طرف شخصيات ذات خبرة في المجال كانت:
إلغاء تطوير الـ AI وخدماته أكثر. الأمر سهل للغاية، لدينا ذكاء اصطناعي جيد لإنجاز مختلف الخدمات صح، مثل GPT4 و Gemini AI وهي تستطيع مساعدة البشرية حتى الآن في تقديم الأفضل. فما رأيكم أن نتوقف هنا؟ لا داعي لـ GPT5 مثلًا الذي يمكنه أن يكون أقوى بل وأكثر خطورة واستخداماته قد تكون جد متطورة للاستخدام البشري؟ بالطبع فكرة جيدة، لكن منصات مثل OpenAI لا تريد ذلك لأنه يحد من أرباحها ويجعلها تتوقف عن تحقيق دخل جيد لها.
إدراج بنود الاستخدام في المجال الحربي خيار آخر مطروح، لم سمحت OpenAI باستخدام الـ AI في المجال الحربي؟ لا تسمح بذلك. المشكلة أن المجال العسكري يدفع الضعف عشرات المرات من أجل الحصول على هذه التقنيات، وهو ما يعمي بصيرة شركات مثل OpenAI. بالإضافة إلى أنها في الأخير ستقوم بتطوير ذكائها الخاص، فمن الأفضل توفير ذكائنا الخاص مقابل المال.
إلى أي مدى يمكن أن يصبح الذكاء الاصطناعي خطيرًا؟
بصيغة أخرى: ما استخدامات الـ AI في المجال الحربي؟
هل الذكاء الاصطناعي قادر مثلًا على صناعة قنبلة نووية؟ أو إنشاء صاروخ باليستي؟ بالتأكيد لا، فلم كل هذا الخوف؟
يمكن استخدام الـ AI في تحسين وتطوير هذه الأسلحة لا صناعتها. فعلى سبيل المثال باستخدام الـ AI يمكننا معرفة كيف يمكن صناعة صاروخين باليستيين بميزانية صاروخ واحد. أو كيف يمكن تحسين نطاق إطلاق الصواريخ، أو إنشاء تكتيكات حربية غير معروفة لا يمكن للأعداء التعامل معها. يوجد الكثير من الأشياء التي يمكن القيام بها باستخدام الذكاء الاصطناعي.
لجهلنا بما يمكن للذكاء الاصطناعي فعله في العالم الحربي، فلا يمكننا إلا أن نتمنى خيرًا وسلامًا.
[…] تتفاجئ وتستغرب حين تسمع أن قواعد الذكاء الاصطناعي قد يتم إعادة تشكيلها من طرف الكونغرس الأمريكي وذلك […]