• خبراء يحذرون من "استخدام خبيث" للذكاء الاصطناعي


    المصور: ايزاك لورانس

    A G حذر خبراء الأربعاء من خطر سوء استخدام الذكاء الاصطناعي، منبهين إلى أن طغاة ومجرمين وإرهابيين قد يستعينون بهذه التكنولوجيا للتلاعب بالانتخابات واللجوء الى طائرات مسيّرة لشن هجمات.
    وفي تحليل يقع في مئة صفحة، يشدد الخبراء على التزايد المطرد في جرائم المعلوماتية واستخدام "بوتات" (برامج خبيثة يستخدمها القراصنة وتنتشر تلقائيا) للتدخل في جمع الاخبار واختراق وسائل التواصل الاجتماعي عارضين مجموعة من السيناريوهات المحتملة التي يمكن ان نشهدها في السنوات الخمس او العشر المقبلة.
    ويقول شون او هيغيرتاي المدير التنفيذي في مركز كامبريدج لدراسة المخاطر الوجودية إن "تقريرنا يركز على الطرق المتاحة لالحاق ضرر مقصود عبر استخدام الذكاء الاصطناعي".
    ويقول او هيغيرتاي لوكالة فرانس برس "الذكاء الاصطناعي قد يطرح تهديدات جديدة، او قد يغير طبيعة التهديدات القائمة في مجالات الامن المعلوماتي والمادي والسياسي".
    فالاستخدام الشائع لـ"التصيد الاحتيالي" (ارسال رسائل الكترونية تتضمن برامج خبيثة لاصطياد معلومات شخصية قيمة)، على سبيل المثال، قد يصبح اكثر خطورة باشواط، بحسب التقرير.
    ومحاولات "التصيد الاحتيالي" (فيشينغ) حاليا هي اما عامة وبسيطة، على شكل مخادعين يطلبون تفاصيل مصرفية من اجل ايداع مبالغ مالية، اما خاصة وتتطلب عملا كبيرا، على شكل استقاء معلومات شخصية لكسب ثقة احدهم من اجل ما يعرف ب "التصيد الاحتيالي الموجه" (سبير فيشينغ).
    ويقول او هيغيرتاي إنه "باستخدام الذكاء الاصطناعي قد يصبح من الممكن ممارسة التصيد الاحتيالي الموجه على نطاق واسع عبر اتمتة جزء كبير من العملية، ما سيزيد من صعوبة اكتشافها.
    على الصعيد السياسي، يمكن حاليا للطغاة وقادة الانظمة الديكتاتورية استخدام التكنولوجيا المتقدمة لغربلة كميات هائلة من المعلومات تم تجميعها بواسطة شبكات المراقبة المنتشرة للتجسس على شعبهم.
    ويقول التقرير إن "الطغاة سيتمكنون، بشكل اسرع، من تحديد هويات الاشخاص الذين قد يكونون يخططون لقلب النظام، وتحديد اماكن تواجدهم، وزجهم في السجون قبل تحركهم".
    كذلك الامر، فان الدعاية الموجهة المترافقة مع تسجيلات فيديو مزيفة رخيصة ومقنعة بشكل كبير اصبحت ادوات فاعلة للتلاعب بالرأي العام "على مستويات لم يكن في السباق ممكنا تخيلها".
    واورد الاتهام الذي وجهه الاسبوع الماضي المحقق الخاص روبرت مولر بالتفصيل عملية واسعة النطاق لزرع الشقاق في الولايات المتحدة والتأثير على الانتخابات الرئاسية في 2016 حين تلاعبت "شبكات تصيد" بآلاف البوتات على وسائل التواصل الاجتماعي، خصوصا "فيسبوك" و"تويتر".
    كذلك يلوح خطر آخر في الافق يتعلق بمنع انتشار الطائرات من دون طيار والروبوتات التي قد تستخدم لغايات اخرى كالتسبب بحوادث للمركبات الذاتية التحكم، واطلاق صواريخ، او تهديد بنى تحتية حساسة من اجل الحصول على فدية.
    - اسلحة ذاتية التحكم -
    ويقول مايلز برانديدج، الباحث في معهد مستقبل الانسانية التابع لجامعة اكسفورد، والمشارك في اعداد التقرير "شخصيا انا قلق جدا حيال استخدام الطائرات من دون طيار الذاتية التحكم لغايات ارهابية او هجمات الكترونية سواء من قبل مجرمين او جهات تابعة للدولة".
    ويورد التقرير سيناريو افتراضيا يتمكن فيه "سويبوت"، وهو روبوت يستخدم لتنظيف المكاتب، من اختراق وزارة المال الالمانية مجهزا بقنبلة عبر اختلاطه بآلات اخرى من الطراز نفسه.
    ويتصرف الروبوت الدخيل بطريقة طبيعية، يقوم بالكنس، والتنظيف، والتقاط القمامة الى ان يتمكن برنامجه الخفي للتعرف على الوجوه من رصد الوزير للاقتراب منه.
    بحسب هذا السيناريو المفترض "يتم تفعيل الشحنة الناسفة المخفية بمجرد الاقتراب لمسافة كافية، لينتهي الامر بقتل الوزير وجرح الموظفين القريبين منه"، .
    ويقول او هيغيرتاي "يعطينا هذا التقرير تصورا حول كيف يمكن ان يكون العالم في السنوات الخمس او العشر المقبلة".
    ويتابع او هيغيرتاي "نحن نعيش في عالم محفوف بالمخاطر اليومية جراء سوء استخدام الذكاء الاصطناعي، وعلينا ان نتحكم بالمشاكل".
    ويدعو معدا التقرير المسؤولين والشركات الى جعل برامج تشغيل الروبوت غير قابلة للقرصنة، وفرض قيود امنية على بعض الابحاث، والنظر في تعزيز القوانين والانظمة التي تحكم تطوير الذكاء الاصطناعي.
    ويقول التقرير إن شركات التكنولوجيا المتقدمة الكبرى، الرائدة في مجال الذكاء الاصطناعي "لديها الكثير من الحوافز للتأكد من ان الذكاء الاصطناعي آمن ويمكن الاستفادة منه".
    الى ذلك فان الاستخدام المتزايد للاسلحة الفتاكة الذاتية التحكم يثير القلق.
    ووجهت العام الماضي اكثر من مئة شخصية من اصحاب الشركات التي تعنى بالذكاء الاصطناعي والروبوتات، من بينهم المدير التنفيذي لشركتي "تيسلا" و"سبايس أكس" ايلون ماسك، وعالم الفيزياء الفلكية البريطاني ستيفن هوكينغ عريضة موقعة الى الامم المتحدة للمطالبة بحظر الروبوتات القاتلة الذاتية التحكم، محذرين من ان اسلحة الجيل الرقمي قد تستخدم من قبل ارهابيين لقتل مدنيين.
    وفي بيان مشترك قال الموقعون على العريضة، ومن بينهم مؤسس "ديبمايند" التابعة لغوغل مصطفى سليمان إن "الاسلحة الفتاكة الذاتية التحكم قد تتحول الى ثورة ثالثة في مجال الحروب"، بعد اختراع الرشاشات والقنبلة الذرية.
    ويقول سليمان "ليس لدينا وقت كاف للتحرك. ما ان تفتح ابواب جهنم سيكون من الصعب اغلاقها".
    ويشارك في إعداد التقرير الجديد وهو بعنوان "الاستخدام الخبيث للذكاء الاصطناعي: التوقع، الوقاية، وتخفيف الاثر"، خبراء من مؤسسة "الكترونيك فرونتير فاونديشن"، ومركز "نيو اميريكن سكيوريتي"، و"اوبن ايه اي"، وهي شركة ابحاث رائدة لا تتوخى الربح.
    ويقول برانديدج "معرفة ما اذا كان الذكاء الاصطناعي مفيدا ام مضرا، رهن بما يقرره الانسان، وليس بما تنتجه التكنولوجيا".
لمراسلتنا والتواصل معنا
للتسجيل و دخول حسابك
صحيفة سعودية مرخصة من وزارة الثقافة و الإعلام