Geoffrey Hinton pasó la mayor parte de su vida trabajando con computadoras. Desarrolló un sistema informático que funciona igual que el cerebro humano. Contribuyó al avance de la Inteligencia Artificial (IA). Se convirtió en uno de los mayores expertos mundiales en IA. Entonces se dio cuenta de que la IA ya está más avanzada de lo que pensábamos.
Cree que la IA podría llegar a ser más inteligente que un ser humano dentro de cinco años. Incluso podrían decidir tomar el control. Hinton dejó su trabajo. Ahora se dedica a advertir a la gente sobre la IA. Hinton no es el único experto preocupado. El 30 de mayo de 2023, cientos de científicos de alto nivel firmaron una carta. En ella advertían de que la IA era una amenaza para la humanidad tan grave como la guerra nuclear y las pandemias mundiales.
Aunque esto parece el argumento de una película de ciencia ficción, ya estamos viendo algunos de los peligros de la IA. La IA puede generar imágenes tan convincentes que es imposible saber si son reales o no. Esto podría utilizarse para difundir información y noticias falsas. Puede buscar en Internet y encontrar información personal mucho más rápido que los piratas informáticos. Puede utilizarse para crear virus informáticos capaces de evadir la detección.
El Gobierno estadounidense ha escuchado las advertencias sobre la IA. Está estudiando la necesidad de regular o crear controles y límites gubernamentales a la IA. También ha hablado con las principales empresas tecnológicas sobre su desarrollo de la IA. El 22 de julio de 2023, siete de las principales empresas tecnológicas firmaron un acuerdo con el Gobierno estadounidense sobre la IA.
El acuerdo incluye varias medidas que limitarán los peligros de la IA. Han acordado que sus sistemas de IA sean probados por personas de dentro y fuera de sus empresas. Pondrán “marcas de agua” o formas de detectar si algo ha sido creado por su IA. También investigarán los riesgos para la privacidad y ofrecerán actualizaciones periódicas de las capacidades y límites de sus sistemas.
Algunos argumentan que esto no es suficiente. Las empresas no siempre cumplen los acuerdos que firman si no hay leyes que los hagan cumplir. Además, como la IA es mundial, otros países también tendrán que aceptar sus limitaciones. Aun así, es un primer paso para debatir los peligros de la IA.
¿Qué opinas? ¿Crees que hay un límite a lo que la IA debería ser capaz de hacer?
Photo Credit: Ramsey Cardy/Sportsfile for Collision/Getty Images