جوجل تتراجع عن أخلاقيات الذكاء الاصطناعي، وتتخلى عن وعدها عن استخدام الذكاء الاصطناعي في الأسلحة
لقد أجرت شركة جوجل تغييرًا كبيرًا على "مبادئ الذكاء الاصطناعي"، حيث أزالت تعهدًا رئيسيًا بتجنب استخدام الذكاء الاصطناعي لأغراض ضارة، مثل الأسلحة والمراقبة.
وكانت الشركة قد التزمت سابقًا بعدم السعي وراء التقنيات التي كان هدفها الرئيسي هو التسبب في ضرر أو تسهيل إصابة الناس. وشمل ذلك الذكاء الاصطناعي المستخدم للمراقبة والذي ينتهك المعايير الدولية.
ومع ذلك، فإن هذه الوعود مفقودة الآن من مبادئها المحدثة، والتي تمت مشاركتها في منشور مدونة حديث.
"تأتي مبادئ الذكاء الاصطناعي المحدثة في الوقت الذي تضع فيه جوجل نفسها لدور أكبر في صناعة الذكاء الاصطناعي. لقد قطعت الشركة خطوات واسعة في تقديم تكنولوجيتها للحكومات وتركز على الطلب المتزايد على خدمات الذكاء الاصطناعي في جميع أنحاء العالم.
في منشور مدونة يوم الثلاثاء، أشار ديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، إلى أن المنافسة العالمية على قيادة الذكاء الاصطناعي آخذة في التزايد. وكتب هاسابيس: "نعتقد أن الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي، مسترشدة بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان".
"
"إن التحول في نهج جوجل تجاه الذكاء الاصطناعي مرتبط أيضًا بالتوترات المتزايدة بين الولايات المتحدة والصين في السباق نحو الهيمنة على الذكاء الاصطناعي. علق شيام سانكار، كبير مسؤولي التكنولوجيا في شركة بالانتير، على هذه القضية، قائلاً: "ستكون هناك جهود على مستوى الأمة بأكملها" للفوز بسباق الذكاء الاصطناعي.
أصبحت هذه الفكرة أكثر شيوعًا في وادي السيليكون، حيث تحرص شركات مثل جوجل على زيادة عقودها الحكومية. تشير هذه الخطوة إلى مرحلة جديدة حيث تركز الشركة بشكل أقل على تجنب مشاريع معينة وتركز بشكل أكبر على الفوائد المحتملة للذكاء الاصطناعي في قطاعات مثل الأمن القومي.
في الماضي، صرحت جوجل بأنها ستنظر في عوامل اجتماعية واقتصادية مختلفة قبل الانخراط في مشاريع الذكاء الاصطناعي. تمت مراجعة المبادئ الجديدة لتعكس موقفًا أكثر عدوانية: "سنمضي قدمًا حيث نعتقد أن الفوائد الإجمالية المحتملة تتجاوز بشكل كبير المخاطر والسلبيات المتوقعة
".