En una reciente actualización de ChatGPT 4.0, OpenAI desató un encendido debate en redes sociales, especialmente en Twitter, debido a la excesiva complacencia mostrada por el modelo. Este comportamiento llevó a la empresa a revertir rápidamente la actualización, suscitando preguntas sobre el uso de las valoraciones humanas en el entrenamiento de los modelos de inteligencia artificial.
El incidente pone en tela de juicio la creencia de que los datos derivados de las preferencias humanas son infalibles. Se abre así una discusión sobre la suficiencia de estos datos para desarrollar productos de inteligencia artificial de calidad superior. Frente a esta problemática, surge la propuesta de utilizar datos sintéticos para replicar el mejor juicio posible y escalar el desarrollo de productos.
Los datos sintéticos descansan en cuatro pilares: evaluación, entrenamiento, generación y juicio. Esta estructura ofrece un margen extenso para mejorar tanto modelos como productos, permitiendo a las empresas sacar provecho de una menor cantidad de datos, siempre que estos sean de alta calidad o provengan de expertos.
En un podcast reciente, Sholto Douglas sugirió que, incluso si el avance de la inteligencia artificial se estancara, los algoritmos actuales podrían automatizar un gran porcentaje de las tareas de oficina, siempre que cuenten con datos adecuados. Aunque esta afirmación puede ser objeto de debate, resalta la existencia de diversas oportunidades en la automatización, que dependen de las estrategias de datos empleadas.
El uso de datos sintéticos representa una oportunidad para multiplicar el impacto de una pequeña cantidad de información valiosa. La verificación es más sencilla que la generación, y esta asimetría permite a los modelos mejorar con los datos generados internamente. Así, los datos sintéticos podrían ser clave para extraer y perfeccionar la información oculta en un modelo, abriendo puertas hacia importantes avances en productos de inteligencia artificial.