Anuncio

Harris dice que organismos federales deben demostrar que sus herramientas de IA no hacen daño a la gente

ARCHIVO - La vicepresidenta Kamala Harris habla sobre salud pública en Raleigh, Carolina del Norte, 26 de marzo de 2024.
Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves 28 de marzo de 2024. (AP Foto/Matt Kelley, File)
(Matt Kelley / Associated Press)
Share via

Los organismos federales deben demostrar que sus herramientas de inteligencia artificial no hacen daño a la gente, o bien dejar de usarlas, según nuevas normas reveladas por la Casa Blanca el jueves.

“Cuando los organismos del gobierno utilicen herramientas de IA, les requeriremos que verifiquen que esas herramientas no ponen en peligro los derechos y la seguridad del pueblo estadounidense”, dijo la vicepresidenta Kamala Harris a la prensa antes del anuncio.

Para diciembre, cada entidad debe tener un conjunto de salvaguardas concretas que guíen todo, desde las pantallas de reconocimiento facial en los aeropuertos hasta las herramientas de IA que ayudan a controlar la red eléctrica o determinan las hipotecas y seguros de viviendas.

Anuncio

La nueva directiva emitida el jueves a los jefes de los organismos por la Oficina de Administración y Presupuesto de la Casa Blanca es parte del amplio decreto sobre IA firmado por el presidente Joe Biden en octubre.

La economía estadounidense creció a un sólido ritmo anual del 3,4% de octubre a diciembre del año pasado, informó el gobierno de Estados Unidos el jueves, lo que muestra una mejora con respecto a su estimación anterior.

Si bien el decreto amplio trata de salvaguardar los sistemas comerciales de IA fabricado por las empresas tecnológicas líderes, tales como los que activan los chatbots de IA generativa, la directiva del jueves apunta a las herramientas que los organismos emplean desde hace años para tomar decisiones sobre inmigración, vivienda, bienestar infantil y una gama de servicios.

Como ejemplo, Harris dijo que “si la Administración de Veteranos quiere usar IA en sus hospitales para ayudar a los médicos a diagnosticar a los pacientes, deberán demostrar ante todo que la IA no produce diagnósticos racialmente prejuiciosos”.

Los organismos que no pueden aplicar las salvaguardas “deben dejar de usar el sistema de IA a menos que la conducción pueda explicar por qué hacerlo incrementaría los riesgos o derechos en general o crearía un obstáculo insalvable para sus operaciones cruciales”, según un anuncio de la Casa Blanca.

Hay otros dos “requisitos vinculantes”, dijo Harris. Uno es que las entidades federales deben contratar un jefe de IA con la “experiencia, pericia y autoridad” para supervisar todas las tecnologías de IA empleadas por el organismo, dijo Harris. La otra es que cada año los organismos deben publicar un inventario de sus sistemas de IA que incluya una evaluación de sus posibles riesgos.

Hay algunas excepciones para las agencias de inteligencia y el Departamento de Defensa, que mantiene un debate particular sobre el uso de armas autónomas.

Anuncio