يعتبر مودل GPT من الموديلات التي يتم الاعتماد عليها لإنشاء الكثير من خدمات الذكاء الاصطناعي. أهمها ChatGPT الذي يعتبر ذكاء اصطناعي مبهر ساعد الكثيرين في إنجاز وظائفهم وأعمالهم. واضطرت شركات لمنافسته أو الاعتماد عليه لإنشاء ذكائها الخاص ( مثل Bing ). لحسن الحظ أن ChatGPT يخضع لسيطرة OpenAI، لكن ماذا لو تم ابتكار ذكاء اصطناعي حر؟ لهذا ظهر WormGPT !
تعرف على WormGPT … ذكاء اصطناعي لا أخلاقي
يمكن الاعتماد على ChatGPT لتأدية الكثير من الأعمال والوظائف، من كتابة المقالات إلى الرسائل إلى الحديث عن الطب والصيدلة وتوفير النصائح في كل المجالات. لكن بالنسبة لشخص يريد استغلال الذكاء الاصطناعي بشكل لا أخلاقي، فإن ChatGPT سيمنعه من ذلك. تخيل شخص يريد توليد أرقام لسرقة بطاقات بنكية، أو سرقة حسابات، أو إنشاء عمليات نصب واحتيال رقمي، بالطبع سيوقفه ChatGPT عند حده.
الظاهر أن هؤلاء الأشخاص يحتاجون لإنشاء شيء خاص بهم، ذكاء اصطناعي بدون أخلاق، يهدف لمساعدتهم في عمليات الاحتيال. وعلى إثره ظهر ذكاء اصطناعي جديد باسم WormGPT.
قد كان WormGPT متسترًا لوقت طويل، ولم يتم الكشف عنه إلا مؤخرًا بواسطة شركة حماية حين ألقت نظرة قليلة عن العالم المظلم للإنترنت. ويتم استخدام WormGPT لمختلف العمليات اللاقانونية، من مساعدة الهاكرز في اختراق الحسابات إلى توليد الرسائلة الاحتيالية وصناعة صفحات الـ Phishing.
الذكاء WormGPT ليس الوحيد … أيضا PoisonGPT و ChaosGPT
اكتشف باحثون أن الذكاء الاصطناعي WormGPT ليس الوحيد الذي ينشط في هذه الفئة. بل أيضا توافر الكثير من أدوات وخدمات الذكاء الاصطناعي المثيلة، من بينها ذكائين شهيرين باسم PoisonGPT و ChaosGPT.
إن الهدف من نماذج الذكاء الاصطناعي هذه هو كسر الرقابة التي تفرضها شركات مثل OpenAI على ذكائها. إذ يتم استخدام هذه الأخيرة في عمليات احتيالية بشكل كبير، وهو طلب سيرفضه حتما الذكاء الاصطناعي ChatGPT.
بل والمزيد من بوتات الشات الشريرة
وإن كانت هذه أشهر بوتات الشات “الشريرة” التي تساعد الأشخاص في إنجاز مهمات لا أخلاقية. تعمقت شركة الحماية في بحثها لتستخرج الكثير من البوتات الأخرى الشهيرة مثل: FraudGPT الذي يتم استخدامه كليا في إجراء عمليات احتيال علنية. كصناعة رسائل احتيال والتواصل مع المستخدمين وإقناعهم والتحكم بعقلهم ( هندسة اجتماعية ).
أطلق على اثره صافرة إنذار من طرف كل الشركات المهتمة بالأمن والحماية، مذكرة المستخدمين بتفادي محادثات مع روبوتات، أو تقديم أي معلومات شخصية لأي غريب.
الجانب السيء للذكاء الاصطناعي الذي لا تخبرك به شركة OpenAI
أقدمت OpenAI على وضع بعض الحدود على بوت ChatGPT، وإن كان في الحقيقة نافعًا في الكثير من الأحيان، لكن يمكن تجاوزه عبر بعض الأوامر ( التي تسمى أوامر DAN ). لكن الهاكرز سيكسرون هذه الحماية، ويجعلون استخدام الذكاء الاصطناعي يخدم مصالحهم الشخصية، ويؤذي الناس من كل ويحقق مطالبهم في الاحتيال والسرقة والاختراق.
شركة OpenAI المسؤولة عن ChatGPT تجاهلت بقدر الإمكان البوتات التالية بالرغم من توصلها بطلبات لتأمين وحماية البوت أكثر. لكنها لم ترد.
[…] بوتات الذكاء الاصطناعي “الشريرة”. أبرزها برمجية WormGPT و PoisonGPT وحتى ChaosGPT والتي تهدف لنشر الفوضى واستغلال […]