Revista Salud y Bienestar

Por qué nos asusta la IA y no nos asustan lo suficiente los riesgos biológicos

Por David Ormeño @Arcanus_tco

¿Cuándo reacciona Estados Unidos de forma insuficiente y cuándo de forma exagerada?

Después de que 3.000 personas murieran el 11 de septiembre, Estados Unidos invadió dos países, dando lugar a ocupaciones multimillonarias que costaron la vida a cientos de miles de personas, incluidos soldados y civiles estadounidenses y aliados en Irak y Afganistán. Estados Unidos introdujo cambios permanentes, económicamente costosos y gravemente inconvenientes en el funcionamiento del transporte aéreo para evitar que volviera a ocurrir.

Más de un millón de estadounidenses murieron de Covid-19, y aunque en los primeros meses de la pandemia el país hizo cambios masivos que alteraron sus vidas para reducir su propagación, no ha hecho casi nada para asegurarse de que no vuelva a ocurrir. (Tal vez esto se deba a los cambios masivos que alteraron la vida en los primeros meses de la pandemia; se hicieron lo suficientemente impopulares como para que las advertencias de que deberíamos evitar tener otra pandemia reciban a menudo una respuesta hostil).

De forma más directa, EE.UU. sigue investigando para crear enfermedades más mortíferas y contagiosas, incluso cuando existe una preocupación legítima de que ese tipo de trabajo pueda incluso haber causado Covid. Y a pesar del enorme coste humano y económico del coronavirus, el Congreso ha hecho poco por financiar los trabajos de preparación que podrían mitigar los efectos de la próxima pandemia.

Tomarse en serio la IA

He estado pensando en todo esto mientras la IA y la posibilidad de que sistemas suficientemente potentes nos maten a todos emergía de repente al centro de la escena. Una carta abierta firmada por las principales figuras de la investigación en aprendizaje automático, así como por figuras destacadas de la tecnología como Elon Musk, pedía una pausa de seis meses en la construcción de modelos más potentes que el nuevo GPT-4 de OpenAI. En la revista Time, el absolutista de la seguridad de la IA Eliezer Yudkowsky argumentó que la carta no iba lo suficientemente lejos y que necesitamos una moratoria internacional duradera y obligatoria que considere la IA más peligrosa que las armas nucleares.

En una e ntrevista bastante sorprendente en la CBS el mes pasado, un entrevistador incrédulo le preguntó a Geoff Hinton, un respetado investigador de alto nivel en IA: "¿Qué posibilidades cree que hay de que la IA acabe con la humanidad?". Hinton, cuyo trabajo pionero en aprendizaje profundo ayudó a hacer posibles grandes modelos lingüísticos como ChatGPT, respondió: "No es inconcebible."

El 30 de marzo, Peter Doocy, corresponsal de Fox News, leyó una frase del artículo de Yudkowsky en Time a la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre: "'Literalmente, todos los habitantes de la Tierra morirán'. ¿Está de acuerdo en que eso no suena bien?". Entre risas nerviosas, Jean-Pierre aseguró a todos que la Casa Blanca tiene un plan para el desarrollo seguro de la IA.

No olvidemos la biología

Llevo años sosteniendo que unos sistemas de IA suficientemente potentes podrían acabar con la civilización tal y como la conocemos. En cierto sentido, es gratificante ver que esta postura es escuchada por la corriente dominante y que se debate abiertamente, como creo que se merece.

Pero también es desconcertante. La investigación que busca hacer más poderosos a los patógenos también podría acabar con la civilización tal y como la conocemos. Sin embargo, nuestra respuesta a esta posibilidad ha sido en gran medida un gran encogimiento de hombros colectivo.

Hay personas que trabajan heroicamente para que la normativa estadounidense en torn o a esta investigación sea más clara y mejor, pero lo hacen en un segundo plano, sin la indignación y el escrutinio públicos que cabría esperar que inspirara una cuestión con estos riesgos.

Y aunque frenar el desarrollo de la IA va a ser difícil, controvertido y complicado, dado el gran número de empresas que trabajan en ello y el tamaño potencial del mercado, sólo hay unos pocos laboratorios que realizan peligrosas investigaciones de ganancia de función sobre patógenos con potencial pandémico. Eso debería facilitar mucho el cierre de ese trabajo, o al menos eso se podría pensar.

Jugar a los dados con los riesgos existenciales

En última instancia, y esto no me satisface en absoluto, tengo la sensación de que estos cambios bastante trascendentales en nuestra trayectoria y prioridades dependen a menudo del azar.

Si por casualidad alguien hubiera descubierto a los secuestradores del 11-S a tiempo para detenerlos, el mundo en el que vivimos hoy sería radicalmente distinto.

Si por casualidad diferentes personas hubieran ocupado puestos clave en la administración cuando empezó Covid-19, sabríamos mucho más sobre sus orígenes y posiblemente estaríamos mucho más dispuestos a exigir una mejor política de seguridad en los laboratorios.

Y en cuanto a la dirección que tome el movimiento para frenar la IA, me da la impresión de que también depende en gran medida del azar. ¿Qué mensajes captan la atención del público? ¿Existen alarmas de seguridad notables, y aclaran la imagen de a qué nos enfrentamos o la enturbian?

Me encantaría vivir en un mundo en el que nuestra respuesta al riesgo existencial no dependiera del azar o de lo que ocurriera para captar la atención del público y de los medios de comunicación, un mundo en el que los riesgos para la seguridad de todo nuestro mundo recibieran un sobrio escrutinio con independencia de que aparecieran o no en los titulares. En la práctica, sin embargo, parece que tenemos suerte si la investigación peligrosa que altera el mundo -ya sea en IA o en biología- recibe algún tipo de escrutinio público.


Volver a la Portada de Logo Paperblog