• العودة إلى "حياة الغابة".. نتيجة محتملة للذكاء الاصطناعي
    2023-06-05
    غزة(الاتجاه الديمقراطي)

    بشكل سريع، تتوالى التحذيرات الجدية في العالم من التأثيرات "المدمرة" لبرامج الذكاء الاصطناعي إن لم تضبط بتشريعات، حيث قد تسبب ضمورا في عقل الإنسان تقذف به إلى مستوى عصور الجمع والالتقاط في الغابات. ويتمثل التهديد الأخطر في التحذير الذي أطلقه مسئول بريطاني بارز في هيئة الرقابة على الإرهاب، هو جوناثان هول كيه سي، الذي يتمثل دوره في مراجعة مدى كفاية تشريعات الإرهاب.
    وقال المسؤول البريطاني إن تهديد الأمن القومي من الذكاء الاصطناعي أصبح أكثر وضوحا من أي وقت مضى، وإن التكنولوجيا بحاجة إلى أن تصمم مع وضع نوايا الإرهابيين في الاعتبار. وأضاف أنه "قلق بشكل متزايد من نطاق برامج الدردشة الإلكترونية التي تعمل بالذكاء الاصطناعي لإقناع الأفراد الضعفاء بشن هجمات إرهابية".
    وشارك في إرسال هذه التحذيرات مؤسسو ومبتكرو برامج وشركات الذكاء الاصطناعي أنفسهم، وهي تشبه التحذيرات التي أطلقها علماء أسهمت أبحاثهم في إنتاج الطاقة النووية خلال الحرب العالمية الثانية، من مخاطر استخدام هذا الاختراع في صناعة قنابل تدمر البشرية.
     
    العقل البشري مهدد
    خبير التحول الرقمي وأمن المعلومات زياد عبدالتواب يعدد المخاوف من عدم تقنين تطور الذكاء الاصطناعي، قائلا:
    • اعتماد الإنسان على الذكاء الاصطناعي قد يقلل في المستقبل من اعتماده على عقله البشري، ويؤدي لضمور في قدراته، بحيث يصبح أقل ذكاء.
    • هذا الأمر سبق مثال له، وهو أن اعتماد الإنسان على الآلات جعله يقلل استخدامه لعضلاته، فأصبح أضعف بدنيا من العصور السابقة.
    • يمكن لتطبيقات الذكاء الاصطناعي التسبب في الاستغناء عن مهن وظائف، مما يعني زيادة البطالة وأزماتها.
    • وصول هذه البرامج السريع إلى مليارات البشر في وقت قصير، يهدد بسرعة ظهور تأثيراتها.

    التحذيرات تتوالى
    وقبل أيام، صدر بيان عن كبار الخبراء ورجال الأعمال في هذا المجال، من بينهم مبتكر برنامج "تشات جي بي تي" سام ألتمان، ونشره مركز أمان الذكاء الاصطناعي (منظمة غير ربحية مقرها في سان فرانسيسكو)، دعا لجعل مقاومة مخاطر الذكاء الاصطناعي أولوية عالمية، مثلها مثل الأوبئة والحرب النووية، وقال إن هذا "التحذير الأخير".
    ويواظب ألتمان على إبداء مخاوفه من إمكان إلحاق الذكاء الاصطناعي "أضرارا جسيمة بالعالم"، من خلال تزوير نتائج عمليات انتخابية مثلا، أو إحداث تغييرات جذرية في سوق العمل. ومنذ شهرين، دفعت هذه المخاوف 1300 مدير شركة تعمل في الذكاء الاصطناعي وتكنولوجيا الاتصالات والمعلومات إلى توقيع وثيقة تطالب بإيقاف تطوير تقنيات الذكاء الاصطناعي لمدة 6 أشهر على الأقل، لحين وضع ميثاق أخلاقي لعملها.

    وسبق لجيفري هينتون، وهو أحد الآباء المؤسسين للذكاء الاصطناعي، أن حذر من "مخاطره الجسيمة على المجتمع والإنسانية" عندما ترك منصبه في شركة "غوغل" العملاقة مطلع مايو. وعقد عدد كبير من مديري الشركات العملاقة في تكنولوجيا المعلومات في الولايات المتحدة، مجموعة لقاءات في البيت الأبيض، وبحضور نائبة الرئيس الأميركي، مطالبين بالبت في وضع تشريعات لتنظيم عملية تطوير هذه المنظومة. وشغل الأمر حيزا في مناقشات الدول الصناعية السبع في اجتماعاتها الأخيرة، وسط أنباء عن التحضير لميثاق يضبط هذا التطور خلال الاجتماع المقبل.
     
    سلاح فتاك
    • وفق عبد التواب، فإن هناك أبعادا أخرى لخطورة عدم وضع مواثيق لتطوير الذكاء الاصطناعي، منها أن يتحول لسلاح في الحروب السيبرانية وتطوير الأسلحة التقليدية، بعد أن تعمل بتقنيات الذكاء الاصطناعي.
    • كما يُخشى من مساهمة هذه التقنيات في زيادة معدلات الانتحار، خاصة بعد أن دقت واقعة في النرويج جرس الإنذار، حيث ظل أحد شخص يتحدث مع تطبيقات الذكاء الاصطناعي لمدة 6 أشهر بشأن مستقبل الحياة على كوكب الأرض، وانتهى به الأمر إلى الانتحار.
    • بدأت أيضا تتكشف مخاطره على التعليم والعمل والإبداع والفنون، كما اتضح في وقائع إصدار أغان بأصوات عمالقة للغناء رغم وفاتهم، مثل أم كلثوم، مما يسبب مشاكل حقوق ملكية أو تشويه لتاريخ الفن.
    • أيضا، حصل إيلون ماسك مالك موقع "تويتر" على موافقة السلطات الأميركية، لإجراء تجارب السريرية على البشر بزرع شريحة داخل الدماغ لاستخدامها في علاج حالات ميؤوس منها، مما يفتح الباب أمام إمكانية سيطرة منظومة الذكاء الاصطناعي على الإنسان.



    http://www.alhourriah.ps/article/82386