فصلت شركة غوغل أحد مهندسيها، الذي قال إن نظام الذكاء الاصطناعي للشركة يمتلك مشاعر.
وكان بلايك ليموين أعلن، الشهر الماضي، عن نظريته القائلة إن تقنية غوغل اللغوية واعية، ويجب بالتالي احترام "رغباتها".
ونفت غوغل وعدد من خبراء الذكاء الاصطناعي ما زعمه مهندسها ليموين، وأكدت الجمعة أنها أقالته.
وقالت غوغل في بيان إن مزاعم ليموين بشأن نموذج اللغة لتطبيقات الحوار المعروف باسم لامدا "لا أساس لها على الإطلاق"، وإن الشركة عملت معه "عدة أشهر" لتوضيح ذلك.
وأوضح بيان للشركة: "لذلك، من المؤسف أنه على الرغم من الانخراط المطول في هذا الموضوع، لا يزال بلايك يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج".
ولامدا هي تقنية متطورة وأداة الشركة لبناء روبوتات المحادثة.
والشهر الماضي، قال ليموين إن لامدا كانت تُظهر وعياً شبيهاً بالإنسان، وهو ما أثار نقاشاً بين خبراء الذكاء الصناعي والمتحمسين بشأن تطور التكنولوجيا المصممة لانتحال شخصية البشر.
وقال ليموين، الذي عمل مع فريق الذكاء الاصطناعي المسؤول في غوغل، لصحيفة واشنطن بوست، إن وظيفته كانت اختبار ما إذا كانت التكنولوجيا تستخدم خطابا تمييزيا أو يحض على الكراهية.
ووجد أن لامدا أظهرت وعيا ذاتيا، ويمكنها إجراء محادثات حول الدين والعواطف والمخاوف. ودفع هذا ليموين إلى الاعتقاد بأن وراء مهاراته اللفظية المثيرة للإعجاب قد يكمن أيضا عقل واع.
ورفضت غوغل النتائج التي توصل إليها، وقالت في بيانها إنها تأخذ التطوير المسؤول للذكاء الصناعي "على محمل الجد"، ونشرت تقريراً يفصّل ذلك.
وأضافت أن أي مخاوف للموظفين بشأن تكنولوجيا الشركة تتم مراجعتها "على نطاق واسع"، وأن لامدا خضعت لـ11 مراجعة.
وبلايك ليموين ليس أول مهندس ذكاء صناعي يقول إن التقنية أصبحت أكثر وعياً. ففي الشهر الماضي أيضا، شارك موظف آخر في غوغل أفكاراً مماثلة مع مجلة "الإيكونوميست".