Google está disparando contra uno de sus principales investigadores de inteligencia artificial debido a un correo electrónico enviado a otros empleados

Aunque Google es uno de los grandes nombres cuando se trata de investigar las implicaciones sociales de la inteligencia artificial, el gigante tecnológico está haciendo un escándalo. Y de ellos sufrió Timnit Gebru, destacado investigador y cofundador del equipo de investigación de ética en el campo de la inteligencia artificial.

Aprendes cosas nuevas todos los días

El tema es un poco más delicado. Timnit Gebru es/fue un empleado muy respetado por su participación en el examen del efecto de «sesgo» que puede sufrir una IA. Déjame explicarte brevemente. El efecto de sesgo ocurre cuando la IA, en su proceso de aprendizaje automático y procesamiento de datos, discrimina. La discriminación en cuestión es la misma que en la vida real: raza, religión, todo.

Por ejemplo, se ha descubierto que el «detector de discursos de odio» desarrollado por Google está sesgado contra las personas de color. Este efecto puede ocurrir de dos maneras: algorítmicamente o socialmente. El algorítmico ocurre cuando los científicos ingresan datos sesgados en el proceso de aprendizaje automático de la IA. El social es mucho más sutil, y ambos van de la mano. A quien le interese, Este artículo detalla todo el fenómeno, proporcionando ejemplos y estadísticas relevantes.

Y Timnit Gebru se dedicó en cuerpo y alma a investigar este fenómeno, siendo además la única mujer de color en su campo de actividad. Antes de que Google la despidiera, Timnit ya había hablado con los «jefes» sobre su dimisión si la empresa se negaba a aceptar sus condiciones laborales.

Google piensa por ti, y no es muy agradable

Timnit menciona que inicialmente no renunció, pero recibió un correo electrónico de Google en el que la empresa «aceptaba su solicitud de renuncia». La investigadora trató de aclarar las cosas en Twitter, explicando que ella decidiría si dejaba o no su trabajo, una vez que Google regresara con la respuesta a las condiciones impuestas por Timnit. Aparentemente, la corporación se lo llevó ante ellos, eximiéndolo de «aviso»…

Según Gebru, Google la despidió instantáneamente porque la investigadora envió un correo electrónico a empleados de otro departamento interno, llamado Google Brain women and Allies. La empresa considera que el mensaje enviado esa noche se aparta de las normas impuestas en el lugar de trabajo.

„Gracias por aclarar sus condiciones. No podemos estar de acuerdo con el n.° 1 y el n.° 2 como lo solicita. Respetamos su decisión de dejar Google como resultado y aceptamos su renuncia”.

«Sin embargo, creemos que el final de su empleo debería ocurrir más rápido de lo que refleja su correo electrónico porque ciertos aspectos del correo electrónico que sintió anoche para los empleados que no pertenecen a la gerencia en el grupo cerebral reflejan un comportamiento que es inconsistente con las expectativas de un gerente de Google».

«Como resultado, estamos aceptando su renuncia de inmediato, a partir de hoy. Le enviaremos su cheque de pago final a su dirección en Workday. Cuando regrese de sus vacaciones, PeopleOps se comunicará con usted para coordinar la devolución de los dispositivos y activos de Google”.

Timnit Gebru sospecha del jefe del programa de IA de Google, Jeff Dean. Parece que a Dean no le gustó la lista de destinatarios del mensaje. Y la sospecha, combinada con la dificultad de responsabilizar a una corporación gigante, tiene efectos un tanto impredecibles.

Vivimos en tiempos controvertidos

La situación en la que se encuentra Timnit ha generado muchas discusiones en las redes sociales, muchas de las cuales han sido abordadas por otros reconocidos especialistas en el campo de la IA. Es un tema más delicado y no voy a entrar en detalles. Este ejemplo de comportamiento inapropiado por parte de Google muestra cuán «volátil» es la esfera del aprendizaje automático.

Timnit Gebru es uno de los investigadores de IA que quiere corregir los errores que provoca el efecto sesgo que sufre la inteligencia artificial. Obviamente, las IA tampoco son inmunes a los conflictos sociales. Hay hostilidad en ambos lados, y cada vez es más difícil para una de las áreas más fascinantes mantener su neutralidad.

4.7/5 - (274 votos)

Deja un comentario