Cuando hablamos de Inteligencia Artificial (IA), nos referimos a una tecnología que, hace apenas unos años, era parte del cine y la literatura de ciencia ficción. Sin embargo, en 2023, esta herramienta ha comenzado a dar sus primeros pasos consolidados, despertando la curiosidad y emoción de muchos, pero también la preocupación de otros sectores.
¿Puede la IA llegar a controlar tanto la vida cotidiana de la humanidad que acabe por gobernar, siendo la herramienta, al final, la dueña de quien la maneja? Esa pregunta se ha planteado a menudo desde la irrupción de los sistemas GPT-4 de OpenAI, base para herramientas de IA que ya están siendo utilizadas en todo el mundo.
Para Brad Smith, presidente de Microsoft, una de las empresas que más ha trabajado en el desarrollo de IA en sus herramientas y programas, la verdadera clave de todo está en la madurez que la sociedad tenga en cuanto a tecnología se refiere, es decir, en qué tanto hemos aprendido a controlar una herramienta avanzada y no dejar que sea ella quien nos controle.

«Los países de todo el mundo han comenzado a hacer preguntas comunes. ¿Cómo podemos utilizar esta nueva tecnología para resolver nuestros problemas? ¿Cómo evitamos o manejamos los nuevos problemas que podría crear? ¿Cómo controlamos una tecnología que es tan poderosa? Estas preguntas requieren no solo una conversación amplia y reflexiva, sino también una acción decisiva y efectiva», señala.
Claves para no que la herramienta no sea quien maneje al usuario
Smith señala que «los avances resultantes en nuestro enfoque nos han brindado la capacidad y la confianza para ver formas en constante expansión para que la IA mejore la vida de las personas». «Hemos visto que la IA ayuda a salvar la vista de las personas, avanza en nuevas curas para el cáncer, genera nuevos conocimientos sobre las proteínas y proporciona predicciones para proteger a las personas del clima peligroso. Otras innovaciones evitan ataques cibernéticos y ayudan a proteger los derechos humanos fundamentales, incluso en países afectados por invasiones extranjeras o guerras civiles», añade.
Sin embargo, estos beneficios se han ido aprendiendo a medida que empresas, como Microsoft, están analizando las formas en cómo la IA puede facilitar la vida de las personas. Sin embargo, este mismo afán por conocer la herramienta debe mantener presente que, como en otras innovaciones, es el mismo ser humano el que puede convertirlas en algo negativo.
«Desde la invención de la imprenta con tipos móviles en el siglo XV, la prosperidad humana ha crecido a un ritmo acelerado. Invenciones como la máquina de vapor, la electricidad, el automóvil, el avión, la informática e Internet han proporcionado muchos de los componentes básicos de la civilización moderna. Y, al igual que la propia imprenta, la IA ofrece una nueva herramienta para ayudar en verdad a avanzar en el aprendizaje y el pensamiento humanos», comenta.

«Hace poco más de una década, tecnólogos y comentaristas políticos por igual se entusiasmaron con el papel de las redes sociales en la difusión de la democracia durante la Primavera Árabe. Sin embargo, cinco años después, aprendimos que las redes sociales, como tantas otras tecnologías anteriores, se convertirían tanto en un arma como en una herramienta, en este caso dirigida a la democracia misma. Hoy somos 10 años mayores y más sabios, y necesitamos poner esa sabiduría a trabajar», explica.
Una estrategia en cinco pasos
Microsoft comenzó a adaptar principios éticos para sus trabajos con IA a partir de 2018, según señala Smith, momento en que concluyeron que lo más importante era la responsabilidad en el manejo de herramientas como la IA.
A partir de ese trabajo que el gigante de la tecnología ha realizado, se ha podido consolidar una forma para evitar que la IA sea la que domine la vida cotidiana, pasando de facilitador de la misma a controlador. Por ello, Smith enfatiza en cinco puntos que pueden ayudar a que los gobiernos de todo el mundo contengan los posibles descarríos de la IA en contra de la sociedad.
Marcos de seguridad para la IA y contribución de estudios certificados. En este primer punto, Smith señala que es importante que los gobiernos manejen marcos de seguridad para la IA y no se deje como una herramienta libre y sin control. De igual manera, enfatiza en la necesidad de que los gobiernos tengan como aliado a la academia y al sector científico para comprender mejor el avance de la IA.

«En este caso, existe una importante oportunidad de aprovechar el trabajo realizado hace apenas cuatro meses por el Instituto Nacional de Estándares y Tecnología de EE. UU., o NIST. Parte del Departamento de Comercio, NIST completó y lanzó un nuevo marco de gestión de riesgos de IA», destaca.
Exigir frenos de seguridad para la IA. Los mismo respaldos académicos son los que permiten llegar al segundo punto: los sistemas de IA necesitan frenos de seguridad. En este contexto, Smith señala que es importante que los gobiernos exijan a los desarrolladores de IA que se creen frenos de seguridad para evitar que la IA sobrepase las funciones que se le asignan.
«En algunos sectores, las personas reflexivas preguntan cada vez más si podemos controlar de manera satisfactoria la IA a medida que se vuelve más poderosa. A veces se plantean preocupaciones con respecto al control de IA de infraestructura crítica como la red eléctrica, el sistema de agua y los flujos de tráfico de la ciudad.»
«Este plan propone nuevos requisitos de seguridad que, en efecto, crearían frenos de seguridad para los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada. Estos sistemas a prueba de fallas serían parte de un enfoque integral para la seguridad del sistema que mantendría en mente la supervisión humana efectiva, la resiliencia y la solidez», añade.
Desarrollo de nuevos marcos legales regulatorios. Acompañado a lo anterior, es importante que se tengan marcos legales que regulen el avance de la IA. «La ley deberá asignar varias responsabilidades regulatorias a diferentes actores en función de su papel en la gestión de diferentes aspectos de la tecnología de IA», señala Smith.
Para Smith, los gobiernos deben crear «diferentes leyes que establezcan responsabilidades regulatorias específicas sobre las organizaciones que ejercen ciertas responsabilidades en tres capas de la pila de tecnología: la capa de aplicaciones, la capa de modelo y la capa de infraestructura».
Transparencia y garantías de acceso al sector académico. La IA es una herramienta que irá cambiando con el tiempo. Por ello, los gobiernos deben facilitar el acceso al sector académico para que sea éste el que aporte el conocimiento sobre cómo avanza la IA. «La investigación académica es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro. La investigación básica, en especial en las universidades, ha sido de fundamental importancia para el éxito económico y estratégico», comenta Smith.
«A menos que los investigadores académicos puedan obtener acceso a muchos más recursos informáticos, existe un riesgo real de que la investigación científica y tecnológica se vea afectada, incluso en relación con la propia IA. Nuestro plan requiere nuevos pasos, incluidos los pasos que tomaremos en todo Microsoft, para abordar estas prioridades», añade.
Buscar nuevas asociaciones público-privadas para la IA. Finalmente, la capacidad de los gobiernos de aliarse a entes privados para desarrollar de mejor manera la IA, involucrando a todos los sectores de la sociedad, permitirá un crecimiento controlado de la herramienta. «Una lección de los últimos años es lo que las sociedades democráticas pueden lograr cuando aprovechan el poder de la tecnología y unen a los sectores público y privado. Es una lección que debemos aprovechar para abordar el impacto de la IA en la sociedad», enfatiza Smith.
«Todos nos beneficiaremos de una fuerte dosis de optimismo claro. La IA es una herramienta extraordinaria. Pero, al igual que otras tecnologías, también puede convertirse en un arma poderosa… Lo que descubrimos es que cuando los sectores público y privado trabajan juntos, cuando los aliados de ideas afines se unen y cuando desarrollamos tecnología y la usamos como escudo, es más poderosa que cualquier espada en el planeta», comenta también.