ChatGPT y otras inteligencias artificiales generativas están listas para desplazar ciertos puestos de trabajo en todo el mundo. Mientras que tanto OpenAI como Goldman Sachs han divulgado informes sobre cómo esta tecnología afectará al mercado laboral, un nuevo análisis profundiza aún más en la cuestión. Según expertos en ciencias políticas de la Universidad de Zúrich, ChatGPT podría sustituir a los empleados encargados de entrenar los modelos de inteligencia artificial.
La investigación contrastó el desempeño de ChatGPT con el de los etiquetadores de Mechanical Turk, un sitio web de crowdsourcing de Amazon que provee trabajos sencillos y de bajos ingresos. Las compañías de inteligencia artificial emplean estas plataformas para subcontratar trabajadores que moderan y mejoran su modelo. Por unos pocos dólares, un empleado etiqueta información que podría resultar perjudicial para filtrarla del conjunto de datos de entrenamiento.
Con el objetivo de evaluar el rendimiento de ChatGPT en labores de anotación y categorización, los expertos emplearon una muestra de 2.382 publicaciones en Twitter. El material debía ser etiquetado en cuanto a su relevancia, postura, tema y dos tipos de detección de marcos. El análisis también tomó en cuenta la consistencia al considerar el grado de acuerdo entre los codificadores, es decir, el porcentaje de tweets que recibieron la misma etiqueta tras llevar a cabo dos ejecuciones de ChatGPT.
Desde una perspectiva financiera, el uso de ChatGPT para llevar a cabo tareas de anotación como las del ensayo resulta mucho más económico que contratar a un trabajador de MechanicalTurk. Las cinco tareas de clasificación, que equivalen a 25.264 anotaciones, tuvieron un costo de 68 dólares mediante el chatbot. En contraste, el empleado humano facturó 657 dólares por 12.632 anotaciones.
La investigación plantea una preocupante verdad acerca de ChatGPT y los modelos de inteligencia artificial.
Una vez que se obtuvieron los resultados, los expertos llegaron a la conclusión de que ChatGPT es hasta veinte veces más económico que un ser humano. «A este precio, sería posible etiquetar conjuntos de datos completos o crear grandes grupos de entrenamiento para el aprendizaje supervisado», indicaron. El trabajo realizado por la inteligencia artificial no solo representa un ahorro económico para las empresas, sino que también es más exacto y coherente que el de una persona.
El estudio plantea la posibilidad de prescindir del personal que se dedica a etiquetar y clasificar el contenido de los modelos, un trabajo que suele ser monótono y mal remunerado. De acuerdo con un artículo de Time, OpenAI pagó entre $1,32 y $2 por hora a trabajadores de Kenia por detectar contenido potencialmente perjudicial en su IA. Estos empleados se vieron expuestos a leer descripciones de situaciones de homicidio, tortura, incesto, abuso sexual infantil o suicidios durante su jornada laboral.
OpenAI no es la única compañía que se beneficia de las circunstancias precarias en países menos desarrollados. Google y Microsoft también han recurrido a servicios de empresas de subcontratación para llevar a cabo labores similares. En todos estos casos, los empleados tienen que lidiar no solo con salarios bajos, sino también con el estrés que puede generar la exposición a este tipo de contenido.
A pesar de que los investigadores sostienen que ChatGPT y LLM tendrían un impacto disruptivo en MechanicalTurk y otros mercados, los usuarios de la plataforma se mantienen seguros. En una entrevista con Motherboard, Krystal Kauffman, quien trabaja en MTurk y defiende los derechos de otros empleados, expresó que no cree que el chatbot pueda sustituirlos.
Kauffman argumentó que aunque ChatGPT puede generar texto automáticamente, aún se necesita la intervención humana para evaluar si es un TEXTO DE CALIDAD (por ejemplo, que no contenga violencia ni racismo). Además, mencionó varias deficiencias en el estudio, como la falta de un proceso de revisión por pares o la ausencia de resultados utilizando GPT-4. Según ella, hay muchas preguntas que aún no tienen respuesta, lo que dificulta la confianza en las capacidades de ChatGPT para superar a los anotadores humanos.
fuente: