Funcionarios de alto nivel del Gobierno de Estados Unidos y de Amazon se reunieron, en el marco del DC Summit, organizado por Amazon Web Services, para hablar de los retos en seguridad en los que se debe avanzar en inteligencia artificial.
Uno de ellos, como reconoció Stephen Schmith, vicepresidente y chief security officer de Amazon tiene que ver con la manera en que los ciudadanos perciben el futuro de la IA. Por ejemplo, mencionó que “aún no hemos llegado al punto en que los bots se ataquen entre sí de forma autónoma. Pero eso no significa que no pueda suceder. De hecho, internamente ya hemos desarrollado un modelo con dos agentes que se enfrentan entre ellos”.
A esta idea, añadió que la inteligencia artificial “trae consigo un conjunto de oportunidades, puede tomar medidas utilizando el software automáticamente, pero un conjunto de desafíos”, a lo cual se preguntó: “¿cómo nos aseguramos de que el software esté haciendo exactamente lo correcto cada vez y, lo que es más importante, podemos mejorar lo que le hizo a las partes interesadas y a los reguladores?”
En este mismo sentido, añadió que hay una forma canónica sobre la IA en la que “todo el mundo piensa, que te está atacando de forma autónoma, ¿Llegaremos a ese punto? eventualmente, seguro”.
En este sentido, resaltó algunas ideas clave. Por ejemplo, indicó que las empresas tecnológicas tienen la responsabilidad de colaborar con el sector público en el uso ético y seguro de la inteligencia artificial.
Dijo además que las democracias deben trabajar juntas para defender valores comunes, con un equilibrio entre beneficios y seguridad nacional. Al tiempo, consideró que se necesitan políticas claras para garantizar que las tecnologías de IA respeten los derechos civiles y las libertades democráticas.
¿Qué opina la CIA sobre el uso de inteligencia artificial?
En la misma conversación, Lakshmi Raman la directora de inteligencia artificial de la CIA explicó algunas de las posturas de la organización, destacando por ejemplo que uno de los primeros aspectos que se abordan al implementar agentes de IA es el control de acceso a los datos.
Consideró que es esencial asegurarse de que, cuando alguien interactúa con un agente, la respuesta se base en datos a los que realmente tiene permiso de acceso. Cree que, aunque parezca un detalle técnico, este punto es crucial para garantizar precisión, legalidad y relevancia en las respuestas de la IA.
En su caso, se ha optado por definir objetivos concretos para cada implementación. Si un sistema basado en IA va a tomar decisiones que antes eran responsabilidad humana, eso requiere una inversión clara en infraestructura, monitoreo y desarrollo de software.
Sin embargo, considera que los beneficios superan con creces los costos. En sus revisiones de seguridad, por ejemplo, la IA ha permitido reducir drásticamente el tiempo requerido, aumentando frecuencia, profundidad y precisión.
Un hallazgo destacado es que muchas veces los usuarios encuentran formas creativas e inesperadas de aplicar la IA. Por eso, cree que es clave poner estas herramientas rápidamente en manos de los equipos, con los debidos controles de seguridad, y permitir que experimenten, y explicó que algunos casos no funcionarán, pero otros abrirán oportunidades no anticipadas.