A través de una carta abierta, más de mil expertos y ejecutivos del mundo de las IA, entre ellos el destacado historiador y filósofo Yuval Noah Harari y el cofundador de Apple, Steve Wozniak, solicitaron una pausa «inmediata» de seis meses en el desarrollo de sistemas de IA más avanzados que GPT-4. Lo anterior, debido a los riesgos que tendrían para la sociedad y la humanidad, como el aumento de la desinformación, la pérdida de empleos e incluso la posibilidad de la «pérdida de control de la civilización». «Los sistemas de IA con inteligencia que compite con la humana pueden plantear riesgos profundos, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido», apuntan. «Esto no significa una pausa para el desarrollo en general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con capacidades emergentes impredecibles y cada vez más grandes», agregan.