¿Estás visitando desde Argentina?
Ingresá a Linware Argentina ⯈
Continuar en Linware Argentina ⯈
×
¿Qué estás buscando?
BUSCAR!
BLOG
Agencias federales de EE. UU. e IA: la carrera ha comenzado
Publicada el 21/12/2023

Una auditoría revela que actualmente hay más de 1200 casos de uso de IA gubernamental en desarrollo y en uso

Por - Bill Wright

 

La revolución de la IA en las agencias federales ha comenzado

Las agencias federales están aumentando significativamente el uso de inteligencia artificial, según una auditoría de la Oficina de Responsabilidad del Gobierno de EE. UU. (GAO) . El informe señaló que había 228 casos de uso diferentes de IA en funcionamiento, más de 500 más en planificación y aproximadamente otros 500 en fases de investigación o exploración. Es probable que estas cifras sean conservadoras, considerando el rápido avance de la IA desde que el informe recopiló sus datos para el año fiscal 2022. 

 

Las agencias están empleando IA para diversos propósitos para mejorar la misión de su agencia, desde analizar datos de vigilancia para actividades fronterizas hasta interpretar imágenes de drones, detectar amenazas a la ciberseguridad y procesar grandes conjuntos de datos. En particular, la NASA y el Departamento de Comercio son líderes en la integración de la IA, con aplicaciones que van desde el monitoreo global de volcanes hasta el seguimiento de la vida silvestre.

El potencial de la IA y sus desafíos políticos

Esta rápida adopción subraya el potencial transformador de la IA en las funciones gubernamentales. Sin embargo, también saca a la luz los numerosos desafíos en materia de políticas y regulación. Mientras los gobiernos de todo el mundo luchan por encontrar la manera de regular y garantizar que la IA se implemente de manera responsable, la innovación no se detiene a esperar. La ausencia de un estándar gubernamental para la adquisición de IA plantea una serie de preocupaciones que van desde amenazas a la seguridad nacional hasta sesgos algorítmicos. Elastic® espera continuar nuestro trabajo con los formuladores de políticas para ayudar a garantizar el uso responsable de la IA.

Diversos casos de uso de IA en el gobierno

Desde el análisis de datos de vigilancia para la detección de actividades fronterizas hasta la asistencia en exploraciones científicas, el alcance de las aplicaciones de la IA en el gobierno es amplio, diverso y apasionante. Estos estudios de caso reflejan tanto el potencial como la complejidad de la IA para mejorar la capacidad del gobierno para cumplir su misión específica y servir mejor a los ciudadanos estadounidenses.

La necesidad de una integración responsable de la IA

La Administración Biden ha logrado grandes avances en los últimos seis meses para desarrollar algunas directrices de alto nivel. Si bien la Orden Ejecutiva de Biden sobre IA es un importante paso adelante para aclarar estas directrices, el informe de la GAO enfatiza la importancia del desarrollo de políticas para garantizar el uso responsable de la IA, destacando la necesidad de políticas que salvaguarden la privacidad y la seguridad y al mismo tiempo aprovechen los beneficios de la IA.

Mantener el foco en una IA ética y segura

A medida que la IA remodela las operaciones gubernamentales y mejora la experiencia de los ciudadanos , es crucial mantener el enfoque en el uso ético y seguro de la IA. Este informe de la GAO es probablemente el primero de muchos y sirve como recordatorio de la importancia de alinear las políticas con los avances tecnológicos, garantizando que los beneficios de la IA se obtengan plenamente y se gestionen sus riesgos. Está claro que el gobierno de EE. UU. está planeando utilizar la IA para promover su misión, y el impacto de la IA apenas está comenzando.

Principales consideraciones para las agencias gubernamentales que implementan la IA

  1. Precisión: al 36% de los líderes gubernamentales les preocupan los resultados inexactos de la IA generativa, o las alucinaciones. Para abordar estas preocupaciones, muchas organizaciones están utilizando la generación aumentada de recuperación (RAG) para agregar contexto crítico a las aplicaciones de IA generativa. RAG basa modelos de lenguaje grandes (LLM) con los datos internos propios de una agencia, mejorando la calidad y precisión de los resultados.

  2. IA que prioriza la privacidad: las agencias gubernamentales son responsables de salvaguardar los datos confidenciales, y esos datos no deben usarse para capacitar a los LLM públicos. RAG puede proporcionar de forma segura el contexto interno relevante que necesita, sin exponer esos datos al dominio público. Tecnología como Elasticsearch® también puede aplicar controles de seguridad de acceso basados ​​en roles para garantizar que solo las personas adecuadas tengan acceso a conjuntos de datos específicos.

  3. Cumplimiento: mientras las agencias esperan la legislación de IA sobre el uso ético, será esencial mantener una visibilidad total de todos sus datos, de todo tipo. Querrá saber qué datos se utilizan para cada caso de uso de IA y cómo acceder de manera integral y obtener información de esos datos cuando sea necesario.
Ir al Blog