No importa si se trata de un iPhone o un Android, en el ámbito de la fotografía móvil, uno de los modos que implica más trabajo es el modo retrato y esto no siempre es positivo. Mientras que en algunos móviles el modo retrato parece desplegar magia en sus resultados, en otros casos la fotografía resulta ser más bien un truco engañoso, ya sea por la calidad de la imagen en sí misma, por lo artificial del procesamiento o incluso por la falta de coherencia en la imagen producida. En este sentido, DXOMARK ha llevado a cabo un análisis en el que ha identificado al responsable de los defectuosos modos retrato.
En efecto, esto es independiente del sistema operativo del teléfono en cuestión e incluso de la gama a la que pertenezca el dispositivo, aunque este último aspecto resulta crucial en términos de la óptica incorporada en el mismo.
¿Una mala configuración de retrato? Atención al sesgo en el entrenamiento de la IA
Para comprender los resultados de este estudio es importante contextualizar cómo funciona la inteligencia artificial. Para que una IA sea efectiva, es fundamental que haya recibido un entrenamiento extenso tanto en cantidad como en calidad. Por tanto, no es suficiente con que haya aprendido a partir de millones de referencias, sino que estas deben ser variadas. De lo contrario, pueden surgir situaciones problemáticas, como cuando el algoritmo de Google confundió a una pareja de personas negras con gorilas.
Actualmente, si se recurre a una inteligencia artificial generadora de imágenes y se le proporciona un estímulo genérico, es probable que la mayoría de las veces aparezcan hombres de piel blanca. Esto no es casualidad, al igual que si se solicita que aparezca una mujer, es probable que la imagen resulte sexualizada. Todo esto carece de casualidad: estas situaciones ocurren cuando la mayoría de las personas involucradas en el proceso son hombres blancos heterosexuales. La diversidad no solo es crucial, sino que es fundamental.
Por consiguiente, el estudio de DXOMARK revela que el nivel de satisfacción de los usuarios con el modo retrato varía considerablemente según el tono de piel. Específicamente, dependiendo de lo claro u oscuro que sea. Según la investigación, la responsabilidad recae en ese sesgo de entrenamiento: la mayoría de los modelos de IA se entrenan con conjuntos de datos que carecen de diversidad en tonos de piel, lo que deriva en que los modos retrato de los teléfonos móviles tiendan a detectar y procesar de manera deficiente a las personas con tonos de piel más oscuros.
En las distintas gráficas del estudio se incluyen fotografías de individuos con diversos tonos de piel para ilustrar cómo pueden variar parámetros como los ajustes de enfoque y exposición de la cámara en ambos casos. Como se puede apreciar en estas imágenes, el modelo con piel más clara presenta un enfoque adecuado y una exposición correcta, mientras que la otra persona, con piel más oscura, muestra una exposición baja y un enfoque deficiente.
Como señala detalladamente Android Authority, la calibración de la cámara es otro factor que puede agravar la situación. Por tanto, si las escenas de prueba provienen de ubicaciones geográficas específicas, la calibración puede no ser la adecuada para una base de usuarios diversa, lo que se refleja en la manera en la que los dispositivos reproducen los tonos de piel. De acuerdo con el estudio, algunos teléfonos inteligentes parecen preferir “tonos de piel más claros a los oscuros”.
La conclusión, aunque no resulta novedosa, es bastante clara: se requiere una mayor diversidad en los datos y mejores estrategias de ajuste para asegurar una calidad de imagen constante independientemente del tono de piel o la apariencia de la persona. Según DXOMark, hacen falta más casos para abarcar una diversidad de configuraciones, condiciones y tonos de piel, de modo que el resultado final del renderizado brinde una experiencia satisfactoria. Sin embargo, los fabricantes parecen estar trabajando en ello, como muestra la tecnología Real Tone de Google.