تحذير من "إنقراض البشرية" بسبب الذكاء الاصطناعي!

حذر خبراء بينهم مبتكر برنامج "تشات جي بي تي" سام ألتمان في بيان نشر على الإنترنت من أن صعود الذكاء الاصطناعي ينطوي على خطر "انقراض" للبشرية.

ورأى موقعو البيان الذي نشر على الموقع الإلكتروني لمنظمة "سنتر فور أي آي سايفتي" غير الربحية التي تتخذ الولايات المتحدة مقراً أن مكافحة الأخطار المتعلقة بالذكاء الاصطناعي ينبغي أن تكون "أولوية عالمية كسواها من الأخطار الأخرى على مستوى المجتمع كالأوبئة والحروب النووية".

وسبق لجيفري هينتون الذي شارك في توقيع البيان ويعتبر أحد الآباء المؤسسين للذكاء الاصطناعي أن حذر من أخطاره عندما ترك منصبه في شركة "غوغل" العملاقة في مطلع مايو الجاري.

وشدد عبر صحيفة "نيويورك تايمز" على أن التقدم في قطاع الذكاء الاصطناعي يشكل "أخطاراً جسيمة على المجتمع والإنسانية".

وفي مارس الماضي، دعا مئات الخبراء العالميين بينهم الملياردير إيلون ماسك الذي كان بين مؤسسي شركة "أوبن أي آي" عام 2015 وترك مجلس إدارتها في 2018، إلى التوقف لستة أشهر عن إجراء أبحاث ترمي للتوصل إلى تقنيات ذكاء اصطناعي أقوى من "تشات جي بي تي"، معربين عن تخوفهم مما تحمله هذه التكنولوجيا من "أخطار كبيرة على البشرية".

وشكل إطلاق "أوبن أي آي" في مارس الماضي "تشات جي بي تي-4"، وهو إصدار جديد أقوى من "تشات جي بي تي" الذي أتيح استخدامه في نهاية 2022، مؤشراً إلى الانتشار السريع للذكاء الاصطناعي الآخذ في اكتساب الطابع "العام" والذي يوفر قدرات معرفية بشرية ويغني تالياً عن مهن عدة.

ويواظب الأميركي سام ألتمان على إبداء مخاوفه من إمكان إلحاق الذكاء الاصطناعي "أضراراً جسيمة بالعالم" من خلال تزوير نتائج عمليات انتخابية مثلاً، أو إحداث تغييرات جذرية في سوق العمل.

ودعم عشرات الخبراء بيانا نُشر على الصفحة الإلكترونية لمركز أمان الذكاء الاصطناعي.

وأفاد البيان بأن "التخفيف من خطر الانقراض الناتج عن الذكاء الاصطناعي، يجب أن يحتل أولوية عالمية إلى جانب المخاطر الأخرى على مستوى المجتمع مثل الأوبئة والحرب النووية".

بيد أن آخرين وصفوا تلك المخاوف بأنها مبالغ فيها.