La presentación del chatbot ChatGPT hace menos de un año disparó el interés sobre un sector y unas capacidades que hasta poco antes hubieran podido sonar como de ciencia ficción.
Estos sistemas de generación de contenido pueden crear imágenes y sonido, programas informáticos o texto indistinguibles de los salidos de una mano humana. Al tiempo que estas herramientas abren enormes posibilidades a las personas y empresas, también generan temor sobre cómo puedan emplearse y su impacto sobre puestos de trabajo existentes, y han suscitado llamamientos a una mayor transparencia sobre su uso.
En marzo, Elon Musk y un grupo de empresarios y expertos en inteligencia artificial habían pedido una pausa de seis meses en el desarrollo de sistemas más potentes que el GPT-4 de Open AI, con el argumento de posibles riesgos para la sociedad. En mayo, Altman advertía en el Congreso que “mi mayor miedo es que esta tecnología salga mal. Y si sale mal, puede salir muy mal”. Ese mismo mes, 350 empresarios y expertos en el sector advertían de que esta tecnología representa un “riesgo de extinción” para la humanidad. George Hinton, uno de los padres de esta tecnología, dejó Google porque cree que estos programas pueden llevarnos al fin de la civilización en cuestión de años. Un informe de la empresa de análisis de mercado Forrester calcula que para 2030 la inteligencia artificial podría sustituir 2,4 millones de puestos de trabajo en Estados Unidos.
No necesariamente los senadores aceptarán todas las sugerencias de los dirigentes tecnológicos. Pero los participantes en la sesión esperaban que el encuentro lleve a una mejor comprensión en el Congreso de las realidades del sector, sus riesgos y sus ventajas, y de qué es lo que se puede hacer.
Ya se han presentado algunas propuestas concretas, incluido un proyecto de ley que obligaría a incluir advertencias en, por ejemplo, propaganda electoral generada por inteligencia artificial que incluya sonidos o imágenes que puedan inducir a equívocos. Otra iniciativa prevé la creación de un organismo regulador que estudie determinados sistemas de inteligencia artificial antes de adjudicarles una licencia de funcionamiento.
En julio, la Casa Blanca planteó una serie de compromisos voluntarios a las empresas de inteligencia artificial, que buscan garantizar que las capacidades de ese sector no se emplean con fines dañinos. Entre otras cosas, se prevé la obligatoriedad de incluir un sello o una marca de agua en el contenido generado por inteligencia artificial, dada la dificultad —o imposibilidad— de distinguir entre imágenes o texto producidos por estos programas y la realidad. La Casa Blanca también trataba en una orden ejecutiva sobre inteligencia artificial.
El martes, ocho empresas del sector, entre ellas Adobe, IBM y Nvidia, anunciaron su adhesión a los compromisos voluntarios pedidos por la oficina presidencial.
F: El País.