Inténtalo. Pídele que genere una imagen de alguien dibujando con la mano izquierda. En el 99% de los casos, fallará.
Esto nos deja una gran reflexión: ¿cuánta confianza le damos a la información que nos proporciona la IA? ¿Cuántas veces asumimos que es correcta sin cuestionarla?
La respuesta corta a por qué ChatGPT no puede dibujar personas zurdas es sencilla: muchas de las imágenes que utiliza para aprender muestran a personas con la mano derecha dominante, porque la mayoría de la población es diestra. Así de simple.
👽 Ahora, imagina que un extraterrestre usa ChatGPT para entender a los humanos. Si le pide un dibujo de una persona zurda pero siempre obtiene imágenes de diestros, asumirá que esa es la representación correcta.
🚨 Este mismo sesgo aplica a los datos, la historia y las tendencias.
👉 Si una IA no encuentra suficiente representación de algo, puede asumir que no es relevante.
👉 Si tomamos sus respuestas como verdades absolutas, podemos caer en errores sin darnos cuenta.
👉 Si no validamos la información, corremos el riesgo de propagar imprecisiones.
La IA es poderosa, pero la capacidad de cuestionar y validar sigue siendo 100% humana.
¿Alguna vez te has topado con un «error» de IA que te hizo dudar?

Comments are closed.