Hay que regular las Inteligencias Artificiales que interpretan emociones antes de que sea tarde

Javier Peláez
·5 min de lectura
Los primeros desarrollos de IA que detectan e interpretan sentimientos y emociones humanos ya se han puesto en marcha y no existe regulación al respecto
Los primeros desarrollos de IA que detectan e interpretan sentimientos y emociones humanos ya se han puesto en marcha y no existe regulación al respecto

Es posible que te preguntes para qué querría alguien desarrollar un software para detectar emociones humanas mediante el reconocimiento facial. Cámaras que graban nuestra postura, nuestros movimientos, nuestra cara o nuestros gestos, y que, conectadas a programas y algoritmos, buscan saber si estamos asustados, entretenidos, alegres, enfadados o simplemente aburridos. Quizá quieras saber si la tecnología ya es capaz de conseguir algo así con un alto grado de exactitud y también qué usos o aplicaciones podría tener un desarrollo de este tipo. Por todo esto, seguro que te sorprenderá descubrir que esta incipiente industria asociada al reconocimiento automático de emociones y sentimientos humanos crecerá cerca de 40.000 millones de dólares, solo en los próximos cinco años.

Vivimos en un mundo dominado por intrincadas redes y programas que, constantemente, te ofrecen miles de noticias, servicios y productos simplemente porque conocen tus gustos, tus preferencias políticas, tu orientación sexual, tus hábitos y costumbres, tus horarios… y ahora, están trabajando para conocer tu estado de ánimo.

Los proyectos e investigaciones actuales tan solo han conseguido avances parciales y el consenso científico, hoy por hoy, es que la IA todavía aún no es capaz de detectar emociones humanas… pero ya sabemos lo rápido que puede moverse un campo como este, sobre todo si existen miles de empresas y multinacionales interesadas en que esto avance.

No es de extrañar que muchos expertos estén preocupados por los aspectos éticos, morales y de privacidad que una Inteligencia Artificial de este tipo puede presentar. “El balance entre el beneficio de este tipo de IA y sus riesgos es muy complicado y salpicado de posibles peligros”, nos explica Helena Matute, Catedrática Psicología Experimental en la Universidad de Deusto y experta en Psicología de las nuevas tecnologías. “Es de las pocas tecnologías a las que veo muy pocos beneficios, y por el contrario sí muchos peligros. Ahora funciona mal, tampoco sabemos si va a llegar a funcionar o cuando lo hará, pero con este tipo de tecnologías hay que tener mucho cuidado porque van muy rápido. En estos momentos, mucho de lo que aparece en medios, en anuncios o incluso en algunos estudios es pseudociencia o simplemente humo, pero llegará el día en el que uno de estos programas empiece a funcionar bien y no descarto que un día en un futuro no muy lejano puedan captar nuestras emociones con un alto grado de precisión”.

Las primeras aplicaciones de IA que detecta emociones se están realizando en educación
Las primeras aplicaciones de IA que detecta emociones se están realizando en educación

Las aplicaciones para este tipo de tecnología resultan inquietantes. La investigadora y académica Kate Crawford ha publicado en Nature un artículo donde repasa algunos de los posibles usos que una Inteligencia Artificial de esta clase podría desarrollar. En Hong Kong, un programa informático intenta evaluar las emociones de los niños en clase, mediante el análisis de los rasgos faciales. La IA no solo traza las expresiones de los niños y las asigna al estado emocional de cada alumno en diferentes categorías como felicidad, tristeza, ira, disgusto, sorpresa y miedo, sino que también mide la motivación y pronostica las posibles calificaciones del alumno. Herramientas similares se están investigando para vigilar de manera remota a los trabajadores, para comprobar su motivación o como elemento de apoyo para entrevistas de candidatos de trabajo.

La historia nos ha enseñado que la tecnología aparece y empieza a aplicarse mucho antes de que surjan las primeras leyes que la limitan, regulan o incluso prohíben. Mientras el legislador tarda siempre demasiado en ponerse manos a la obra, las industrias siempre llevan años de adelanto distribuyendo y expandiendo esa tecnología. “Por eso es absolutamente necesario regular cuanto antes las tecnologías de reconocimiento facial y sus diferentes aplicaciones como la interpretación de emociones”, indica Matute. “Es además, un tema muy delicado porque claramente invade información totalmente privada. Si estás enfadado, cansado, alegre o triste, es algo que todos entendemos como íntimo y personal, y no deberíamos permitir que nadie saque beneficio, y hay empresas que ya lo están sacando sin que exista limitaciones o regulaciones”.

Empresas como “4 Little Trees”, responsable del programa de vigilancia de niños en clase de Hong Kong, ya están comercializando y vendiendo software de reconocimiento facial que interpretan las expresiones captadas en seis emociones fundamentales, sin ningún tipo de legislación que regule esta tecnología y sus aplicaciones, sin evidencia de efectividad claramente documentada y auditada de forma independiente.

Los peligros son muy reales y ya están con nosotros. No solo los estudiantes de Hong Kong, vigilados y señalados por una IA que cree detectar una expresión de enfado, sino que ya existen personas que han perdido la oportunidad de un trabajo, porque la empresa contratante utiliza un software de este tipo para juzgar a los solicitantes. Por no mencionar los claros problemas sociales y discriminatorios que estas herramientas ofrecen en la actualidad. Existen estudios que demuestran que este tipo de software de reconocimiento facial interpreta que los rostros de personas negras muestran más emociones negativas que los rostros blancos.

La Inteligencia Artificial ya ha cambiado nuestro mundo y sabemos seguro que dominará gran parte del mundo en el futuro. Sus aplicaciones son enormes, algunas son claramente positivas y beneficiosas, otras ofrecen dudas y peligros. No podemos permitir que las tecnologías de detección de reconocimiento de emociones se extiendan y se utilicen sin una regulación previa que proteja al ciudadano. Los proyectos de investigación de esta tecnología ya están en marcha y se cuentan por cientos, afectando a infinidad de ámbitos como educación, atención médica, empleo o incluso justicia penal. Es urgente que nuestros responsables políticos estén informados de los últimos avances científicos y dejen de llegar tarde a su regulación, como ha ocurrido normalmente hasta ahora.

Más artículos interesantes sobre IA en Yahoo ciencia: