Microsoft prohíbe el uso de la inteligencia artificial de OpenAI por parte de la policía de Estados Unidos

La reciente decisión de Microsoft de prohibir el uso de la inteligencia artificial de OpenAI por parte de la policía de Estados Unidos ha generado un debate crucial en torno al uso ético de la tecnología en la seguridad pública. Esta medida, tomada ante la creciente preocupación por posibles abusos y discriminación que podrían surgir del empleo de algoritmos de inteligencia artificial en el ámbito policial, refleja la responsabilidad que las empresas de tecnología tienen en el impulso de prácticas justas y equitativas. La decisión de Microsoft destaca la importancia de considerar los impactos sociales y éticos de la implementación de tecnologías avanzadas en contextos sensibles como el mantenimiento del orden público.

Index

Microsoft prohíbe uso de IA de OpenAI por policía de EE UU para reconocimiento facial

Microsoft ha tomado la decisión de prohibir que la policía de Estados Unidos utilice la inteligencia artificial generativa de OpenAI. Esta medida ha sido implementada a través de la actualización del 'Código de Conducta de Azure OpenAI Service', restringiendo así el acceso a las herramientas de la compañía de Sam Altman.

Con esta modificación, se impide que cualquier departamento de policía tenga acceso a la IA de OpenAI para emplear modelos de análisis de texto, voz y reconocimiento facial. Según Microsoft, los integraciones con Azure OpenAI Service no deben utilizarse para cualquier tecnología de reconocimiento facial en tiempo real en cámaras móviles utilizadas por cualquier organismo policial a nivel mundial.

La prohibición incluye la identificación de personas en entornos no controlados, la vigilancia continua y seguimientos persistentes de cualquier usuario a través de datos personales o biométricos.

Modelos de OpenAI restringidos para la policía de EE UU

Modelos de OpenAI restringidos para la policía de EE UU

Los servicios de IA de Azure que la policía de Estados Unidos no podrá utilizar son GPT-3, GPT-4 y GPT-4 Turbo con los modelos Vision y Codex, así como DALL-E 2, DALL-E 3 y Whisper.

Microsoft también ha restringido la identificación o verificación de identidades individuales mediante rostros, así como el análisis facial para deducir el estado emocional, género o edad de una persona.

Posibles motivos detrás del cambio de política

Estos cambios en la política de Microsoft surgen después de que Axon, fabricante de productos tecnológicos para fuerzas del orden, anunciara un nuevo dispositivo que emplea el modelo de texto generativo GPT-4 de OpenAI. Críticos han señalado potenciales peligros como prejuicios raciales introducidos a partir de los datos de entrenamiento.

A pesar de la incertidumbre sobre si Axon estaba utilizando el servicio Azure OpenAI, se ha especulado que la actualización de la política fue en respuesta al lanzamiento del producto de Axon. OpenAI ya había restringido previamente el uso de sus modelos para reconocimiento facial a través de sus API.

Recibe las últimas noticias sobre tecnología suscribiéndote a nuestra newsletter.

José Manuel Pérez

Soy José Manuel, un experto en temas de actualidad nacional española y colaborador del Diario Online, un periódico independiente que se caracteriza por ofrecer información veraz y objetiva. Mi pasión por el periodismo me impulsa a investigar a fondo cada noticia para brindar a nuestros lectores contenido relevante y de calidad. Con mi experiencia y conocimientos, me esfuerzo por contribuir al debate público y mantener informada a nuestra audiencia sobre los acontecimientos más importantes en España. ¡Sígueme para estar al tanto de toda la actualidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir