OpenAI utilizó trabajadores kenianos pagando 2 dólares la hora para hacer menos tóxico ChatGPT

ChatGPT fue aclamado como una de las innovaciones tecnológicas más impresionantes de 2022 tras su lanzamiento el pasado noviembre. Este potente chatbot de inteligencia artificial (IA) puede generar textos sobre casi cualquier tema, desde un soneto de Shakespeare reimaginado al estilo de Megan Thee Stallion hasta complejos teoremas matemáticos descritos en un lenguaje comprensible para un niño de 5 años. En una semana ya tenía más de un millón de usuarios.

Al parecer, OpenAI, creadora de ChatGPT, está en conversaciones con inversores para recaudar fondos con una valoración de 29.000 millones de dólares, incluida una posible inversión de 10.000 millones por parte de Microsoft. Eso convertiría a OpenAI, fundada en San Francisco en 2015 con el objetivo de construir máquinas superinteligentes, en una de las empresas de IA más valiosas del mundo.

Pero la historia de éxito no es solo la de un genio de Silicon Valley. En su afán por hacer ChatGPT menos tóxico, OpenAI utilizó mano de obra subcontratada de Kenia que ganaba menos de 2 dólares por hora, según ha descubierto una investigación de TIME.

Para crear ese sistema de seguridad, OpenAI siguió el ejemplo de empresas de redes sociales como Facebook, que ya habían demostrado que era posible crear IA capaces de detectar lenguaje tóxico, como el discurso del odio, para ayudar a eliminarlo de sus plataformas. La premisa era sencilla: alimentar una IA con ejemplos etiquetados de violencia, incitación al odio y abuso sexual, y esa herramienta podría aprender a detectar esas formas de toxicidad en la naturaleza. Ese detector se incorporaría a ChatGPT para comprobar si se hacía eco de la toxicidad de sus datos de entrenamiento y filtrarla antes de que llegara al usuario. También podría ayudar a eliminar el texto tóxico de los conjuntos de datos de entrenamiento de futuros modelos de IA.

Para obtener esas etiquetas, OpenAI envió decenas de miles de fragmentos de texto a una empresa de subcontratación en Kenia, a partir de noviembre de 2021. Gran parte de ese texto parecía haber sido extraído de los recovecos más oscuros de Internet. Algunos describían situaciones con detalles gráficos como abuso sexual infantil, zoofilia, asesinato, suicidio, tortura, autolesiones e incesto.

investigación y fuentes de Times.com

Artículos recomendados