En un movimiento significativo dentro del sector tecnológico, Microsoft ha actualizado los términos de servicio de su Azure OpenAI Service para prohibir explícitamente el uso de tecnologías de reconocimiento facial por parte de los departamentos de policía en Estados Unidos. Esta decisión resalta la creciente preocupación por las implicaciones éticas y de privacidad relacionadas con el uso de inteligencia artificial en aplicaciones de seguridad y aplicación de la ley.
Una decisión de gran alcance
La actualización impide que la policía utilice las capacidades de IA de Microsoft para el reconocimiento facial en cámaras móviles, como las cámaras corporales y dashcams, en ambientes no controlados o «en la naturaleza». Esta restricción busca abordar preocupaciones sobre la privacidad y los posibles sesgos en la identificación de individuos en tiempo real, una práctica que ha sido criticada por su potencial para amplificar desigualdades raciales y violar derechos civiles.
Contexto y crítica
El cambio en la política de Microsoft se produce después de controversias relacionadas con la utilización de tecnologías similares por parte de otras empresas y organismos. Recientemente, Axon, un fabricante de tecnología para fuerzas de seguridad, fue criticado por integrar la tecnología de IA generativa GPT-4 en sus cámaras corporales para resumir audios captados, lo que planteó riesgos de generar información incorrecta o sesgada.
Limitaciones y alcance
Es importante destacar que esta prohibición se aplica exclusivamente dentro de los Estados Unidos y no afecta el uso de tecnología de reconocimiento facial en cámaras fijas o en entornos controlados, ni tampoco impacta a las fuerzas del orden de otros países. Esto sugiere que Microsoft reconoce ciertos contextos en los cuales el reconocimiento facial podría ser considerado aceptable bajo regulaciones y supervisión adecuadas.
Colaboraciones continuas en seguridad
A pesar de la prohibición, Microsoft continúa su colaboración con agencias del gobierno de EE. UU., incluyendo el Pentágono, para mejorar las capacidades en ciberseguridad y desarrollar aplicaciones que apoyen misiones de defensa nacional. Este enfoque indica un equilibrio entre la innovación tecnológica y las necesidades de seguridad nacional, siempre dentro de los límites de las normativas éticas y legales.
Conclusiones y futuro
La decisión de Microsoft de prohibir el uso de su IA para reconocimiento facial por la policía refleja un compromiso con la protección de la privacidad y la ética en la implementación de nuevas tecnologías. Mientras la compañía continúa explorando el potencial de la IA, también establece un precedente importante para otras empresas tecnológicas en cuanto a la consideración de las implicaciones sociales de sus productos. Esta medida podría ser un paso crucial hacia una regulación más estricta y responsable del uso de tecnologías de reconocimiento facial a nivel mundial.
fuente: Blog Azure Gov