Google تُزيل حظر الذكاء الاصطناعي في الأسلحة والمراقبة: مستقبل مُقلق لتقنية مُتقدمة

0

قامت Google بإزالة حظرها طويل الأمد على استخدام الذكاء الاصطناعي في الأسلحة وأنظمة المراقبة، مما يشير إلى تحول كبير في موقف الشركة الأخلاقي بشأن تطوير الذكاء الاصطناعي، وهو ما يقول موظفون سابقون وخبراء في الصناعة إنه قد يعيد تشكيل كيفية تعامل سيليكون فالي مع سلامة الذكاء الاصطناعي.

يُلغي هذا التغيير، الذي تم تنفيذه بهدوء هذا الأسبوع، أجزاء رئيسية من مبادئ الذكاء الاصطناعي من Google التي حظرت صراحةً على الشركة تطوير الذكاء الاصطناعي للأسلحة أو المراقبة. وكانت هذه المبادئ، التي تم وضعها في عام 2018، بمثابة معيار مرجعي للصناعة لتطوير الذكاء الاصطناعي المسؤول.

وكتبت تريسي بيتزو فراي، التي أمضت خمس سنوات في تنفيذ مبادئ الذكاء الاصطناعي الأصلية من Google كمديرة أولى لإدارة المنتجات الصادرة والمشاركات والذكاء الاصطناعي المسؤول في Google Cloud، في منشور على BlueSky: “لقد سقط آخر معقل. لقد كانت Google حقًا بمفردها في هذا المستوى من الوضوح بشأن التزاماتها بما ستبنيه”.

وتزيل المبادئ المعدلة أربعة محظورات محددة: التقنيات التي يُحتمل أن تسبب ضررًا عامًا؛ وتطبيقات الأسلحة؛ وأنظمة المراقبة؛ والتقنيات التي تنتهك القانون الدولي وحقوق الإنسان. وبدلاً من ذلك، تقول Google الآن إنها ستعمل على “التخفيف من النتائج غير المقصودة أو الضارة” وستتماشى مع “المبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان”.

تخفيف Google لقيود أخلاقيات الذكاء الاصطناعي: ماذا يعني ذلك لتقنيات المراقبة والتطبيقات العسكرية؟

يأتي هذا التحول في وقت حساس للغاية، حيث تتقدم قدرات الذكاء الاصطناعي بسرعة وتتصاعد النقاشات حول الضوابط المناسبة لهذه التقنية. وقد أثار التوقيت تساؤلات حول دوافع Google، على الرغم من أن الشركة تؤكد أن هذه التغييرات قيد التطوير منذ فترة طويلة.

قالت “بيزو فراي” في مقابلة مع VentureBeat: “نحن في حالة لا توجد فيها ثقة كبيرة في شركات التكنولوجيا الكبرى، وكل خطوة تبدو وكأنها تزيل الضوابط تخلق المزيد من عدم الثقة”. وأكدت أن الحدود الأخلاقية الواضحة كانت ضرورية لبناء أنظمة ذكاء اصطناعي جديرة بالثقة خلال فترة عملها في Google.

ظهرت المبادئ الأصلية في عام 2018 وسط احتجاجات الموظفين على Project Maven، وهو عقد مع البنتاغون يتضمن استخدام الذكاء الاصطناعي لتحليل لقطات الطائرات بدون طيار. وبينما رفضت Google في النهاية تجديد هذا العقد، فإن التغييرات الجديدة قد تشير إلى انفتاح على شراكات عسكرية مماثلة.

يحافظ التعديل على بعض عناصر الإطار الأخلاقي السابق لشركة Google، لكنه ينتقل من حظر تطبيقات محددة إلى التأكيد على إدارة المخاطر. ويتماشى هذا النهج بشكل أكبر مع معايير الصناعة مثل NIST AI Risk Management Framework، على الرغم من أن الناقدين يقولون إنه يوفر قيودًا أقل صرامة على التطبيقات التي يحتمل أن تكون ضارة.

وأشارت “بيزو فراي” إلى أن “الاعتبارات الأخلاقية لا تقل أهمية عن إنشاء ذكاء اصطناعي جيد، حتى لو لم تكن الدقة هي نفسها”، مُسلطة الضوء على الكيفية التي تُحسّن بها الاعتبارات الأخلاقية من فعالية منتجات الذكاء الاصطناعي وإمكانية الوصول إليها.

من مشروع مافن إلى تحول السياسات: مسار إصلاح أخلاقيات الذكاء الاصطناعي في Google

يقول مراقبو الصناعة إن تغيير السياسة هذا يمكن أن يؤثر على كيفية تعامل شركات التكنولوجيا الأخرى مع أخلاقيات الذكاء الاصطناعي. فقد شكلت مبادئ Google الأصلية سابقة للتنظيم الذاتي للشركات في تطوير الذكاء الاصطناعي، حيث تتطلع العديد من الشركات إلى Google للحصول على إرشادات حول التنفيذ المسؤول للذكاء الاصطناعي.

يعكس التعديل توترات أوسع في صناعة التكنولوجيا بين الابتكار السريع والقيود الأخلاقية. مع اشتداد المنافسة في تطوير الذكاء الاصطناعي، تواجه الشركات ضغوطًا لتحقيق التوازن بين التطوير المسؤول ومتطلبات السوق.

قال بيتسو فراي، معربًا عن قلقه بشأن الضغط التنافسي لإطلاق منتجات الذكاء الاصطناعي بسرعة دون تقييم كافٍ للعواقب المحتملة: “أنا قلق بشأن مدى سرعة انتشار الأشياء في العالم، وما إذا كان سيتم إزالة المزيد والمزيد من القيود”.

معضلة أخلاقيات التكنولوجيا الكبرى: هل سيُحدث تحول سياسة الذكاء الاصطناعي في Google معيارًا جديدًا في المجال؟

تثير المراجعة أيضًا تساؤلات حول عمليات صنع القرار الداخلية في Google وكيف يمكن للموظفين التعامل مع الاعتبارات الأخلاقية دون وجود محظورات صريحة. خلال فترة عملها في Google، أنشأت “بيزو فراي” عمليات مراجعة جمعت وجهات نظر متنوعة لتقييم التأثيرات المحتملة لتطبيقات الذكاء الاصطناعي.

بينما تُصرّ Google على التزامها بتطوير الذكاء الاصطناعي المسؤول، إلا أن إزالة المحظورات المحددة تُمثل خروجًا كبيرًا عن دورها القيادي السابق في وضع حدود أخلاقية واضحة لتطبيقات الذكاء الاصطناعي. مع استمرار تقدم الذكاء الاصطناعي، يراقب المجال كيف يمكن لهذا التحول أن يؤثر على المشهد الأوسع لتطوير الذكاء الاصطناعي وتنظيمه.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.