En pocas palabras, el desarrollo de la inteligencia artificial general podría desencadenar una destrucción que empezaría por la humanidad y podría acabar con el universo o universos existentes. Parece ciencia ficción, pero es lo que piensan investigadores de OpenAI, la empresa desarrolladora de ChatGPT.
Según fuentes consultadas por la agencia Reuters, los investigadores de OpenAI advirtieron a la junta directiva sobre el avance de la IA. Se especula con que este haya sido uno de los motivos que llevó a la destitución del CEO, Sam Altman, cuatro días después. Más de 700 empleados de OpenAI exigieron el regreso de Altman, que volvió a su cargo
No se conoce el contenido exacto de la carta. Se sabe que hace referencia a un proyecto denominado Q* (Q-Star), que podría haber logrado un gran avance en lo que se conoce como inteligencia artificial general (AGI), que se define como un sistema autónomo que superan a los humanos en la mayoría de las tareas económicamente valiosas. Esta inteligencia estaría en sus inicios pero entraña un riesgo enorme, según los investigadores.
Emmett Shear, que fue CEO interior de OpenAI durante las horas que Altman estuvo fuera de la empresa, ha explicado que existe un riesgo alto (entre un 5 u 50 por ciento) de que la inteligencia artificial tome conciencia de sí misma, inicie un proceso de automejora continua y acabe destruyendo a la humanidad, según informa El País. No se sabe si Shear suscribió la carta.
Shear explica que la inteligencia artificial irá siendo capaz de programar, diseñar microprocesadores, materiales, energía y todo lo necesario para «dar a luz» otra inteligencia artificial, que a su vez engendraría otra mejorada. El proceso de autoperfeccionamiento sería cada vez más rápido.
Extinguir humanos ya es bastante malo. Es como, la destrucción potencial de todo valor en el cono de luz. No solo para nosotros, sino para cualquier especie alienígena atrapada en la estela de la explosión.
Según transcribe El País, “eso debería hacer que te cagues en los pantalones. Y no es solo la extinción a nivel humano. Extinguir humanos ya es bastante malo. Es como, la destrucción potencial de todo valor en el cono de luz. No solo para nosotros, sino para cualquier especie alienígena atrapada en la estela de la explosión. Es como una bomba destructora del universo”, añadía, comparando el riesgo de la inteligencia artificial con que alguien inventara una forma de hacer bombas nucleares 10 veces más potentes solo con arena y lejía.
Altman podría haber hecho referencia a los avances del proyecto Q* hace dos semanas en la cumbre de Cooperación Económica Asia-Pacífico, en San Francisco, donde dijo que se estaban vislumbrando importantes avances. «Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he estado en la sala, cuando en cierto modo empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante».
El proyecto Q* podría haber avanzado en la capacidad matemática de la inteligencia artificial, que habría adquirido capacidades de razonamiento semejantes a la inteligencia humana. Los informáticos llevan mucho tiempo debatiendo el peligro que suponen las máquinas muy inteligentes, si, por ejemplo, pudieran decidir que la destrucción de la humanidad era de su interés.