Microsoft limita la polémica herramienta de reconocimiento facial que detecta emociones

La compañía está retirando las capacidades “que infieren en estados emocionales y atributos de identidad, como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje”

Buenos Aires-(Nomyc)-El gigante de la computación anunció una serie de cambios en sus herramientas después de que organismos en defensa de los derechos humanos cuestionaran a la posible vulneración de la privacidad de los usuarios, por lo que de manera concreta, retirará los productos que integren tecnología de reconocimiento facialy tengan la capacidad de reconocer las emociones de los usuarios, a la vez que ha compartido públicamente su estándar de Inteligencia Artificial (IA).

La compañía tecnológica ofrece “software” de reconocimiento facial con servicios como Azure Face, que forma parte de Azure Cognitive Services, que presenta algoritmos de IA capaces de detectar, reconocer y analizar caras humanas, funciones que permite a los usuario el acceso sin contacto o la verificación de identidad, pero que han hecho saltar las alarmas en los organismos a favor de los derechos humanos.

Ya en junio de 2020, Microsoft dejó de vender tecnología de reconocimiento facial a los departamentos de Policía de Estados Unidos, a la espera de la resolución de un reglamento estricto cimentado en los derechos humanos.

En la actualidad, distintos legisladores en Estados Unidos y Europa están sopesando las limitaciones legales de estos servicios, que en muchas ocasiones son tachados de poco confiables o invasivos.

Cómo desarrollar esta tecnología: para construir sistemas de IA de forma responsable, Microsoft compartió su marco estándar en un documento público, en el que ha detallado por primera vez cómo desarrolla y aplica esta tecnología, que se basa en una serie de principios: justicia,fiabilidad, privacidad y seguridad, inclusividad,transparencia y responsabilidad.

La empresa, también anunció que en el último año, investigadores, ingenieros y expertos en políticas de privacidad han elaborado la segunda versión de su estándar inicial, que se lanzó internamente en 2019.

Además, se supo que, luego de conocer un estudio académico realizado por Stanford Computational Policy Lab, se reveló que la tecnología de texto a voz discriminaba a la población negra y afroamericana, se centró en solucionar dicho problema con un estándar de IA que acabara con esa brecha.

Voces idénticas a las originales: el fabricante destacó que revisó el potencial de la tecnología Custom Neural Voice, de Azure AI, que permite crear voces artificiales prácticamente idénticas a las originales.

Luego de ese análisis, se adoptó un marco de control por capas para evitar el mal uso de este sistema y ha anunciado que está limitando el acceso a estos servicios a ciertos clientes y socios.

Análisis facial: la empresa ha advertido que, como parte de su trabajo para alinear su servicio Azure Face con los requisitos del nuevo estándar, está retirando las capacidades “que infieren en estados emocionales y atributos de identidad, como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje”.

En este sentido, la compañía señaló que a partir de ahora los nuevos clientes deberán solicitar acceso para utilizar las operaciones de reconocimiento facial en servicios como Azure Face API, Computer Vision y Video Indezer.

Por el contrario, los clientes ya existentes disponen de un año para solicitar y recibir la aprobación correspondiente para acceder a estos servicios, por lo que desde el 30 de junio de 2023, estos clientes ya no podrán acceder a las capacidades de reconocimiento facial si su solicitud no ha sido aprobada.

Esta limitación no incluye las capacidades de detección facial, incluida la borrosidad, la exposición, el ruido o el cuadro delimitador facial, que permanecerán disponibles y no requieren una aplicación adicional.

La empresa tomó esta decisión después de colaborar con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología, así como sus desventajas.

“En el caso específico de la clasificación de las emociones, estos esfuerzos plantearon cuestiones importantes sobre la privacidad, la falta de consenso sobre una definición de las ‘emociones’ y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en los casos de uso, las regiones y la demografía”, aclararon.   

Nomyc-23-6-22

« Volver