La otra razón del retraso fue que cada vez que veía el vídeo de Rishi Sunak, primer ministro de Little Britain, sentado estupefacto a los pies de Elon Musk y diciendo cosas como "Dado que usted es conocido por ser un innovador y tecnólogo tan brillante...", me entraban unas risitas de impotencia.

Algunas personas afirman que Sunak estaba intentando conseguir un puesto con Musk una vez que pierda las elecciones del año que viene y sea defenestrado por su propio Partido Conservador, pero eso es injusto. Sunak no necesita un trabajo después de la política; su suegro es dueño de media India. No es más que un empollón torpe que desearía ser también un hermano tecnológico.

De todos modos, el tema en Bletchley Park era la IA. Entre el anuncio de Joe Biden de un "Instituto de Seguridad de la IA" estadounidense y la "Cumbre de Seguridad de la IA" de Sunak (que contó con la presencia de la vicepresidenta Kamala Harris, el rey Carlos III y Elon Musk), se habló mucho de inteligencia artificial. La mayoría eran tonterías.

Demis Hassabis, CEO de Google DeepMind, declaró que "no estoy en el bando pesimista sobre la IA, obviamente, de lo contrario no estaría trabajando en ella", pero el pasado mayo advirtió que la amenaza de extinción humana por la IA debería tratarse como un riesgo social comparable a las pandemias o las armas nucleares.

Kamala Harris apostó por la profundidad: "Así como la IA tiene el potencial de hacer un bien profundo, también tiene el potencial de hacer un daño profundo". Lo mismo puede decirse de las drogas, el dinero y los cuchillos afilados. Aún no está preparada para el prime time.

El Rey Carlos pensaba que "El rápido ascenso de la poderosa inteligencia artificial no es menos significativo que... el aprovechamiento del fuego". A riesgo de cometer lesa majestad, hay que responder: No lo es, y además ni siquiera ha ocurrido todavía.

Musk, que nunca se queda sin palabras, opinó que la IA es una "amenaza existencial" porque los seres humanos se enfrentan por primera vez a algo "que va a ser mucho más inteligente que nosotros". Fue una juerga de lo trillado y lo portentoso.

Todos estos pensadores profundos hablaban del riesgo existencial, pero se trata de una contingencia que sólo se plantearía si las máquinas estuvieran dotadas de algo llamado "inteligencia general artificial", es decir, de capacidades cognitivas en software comparables o superiores a la inteligencia humana.

Estos sistemas AGI tendrían capacidades intelectuales tan flexibles y completas como las de los seres humanos, pero serían más rápidos y estarían mejor informados porque podrían acceder y procesar enormes cantidades de datos a una velocidad increíble. Serían una amenaza potencial real, pero no existen.

Ni siquiera hay pruebas de que estemos más cerca de crear ese tipo de software que hace cinco o diez años. Ha habido grandes avances en formas limitadas de inteligencia artificial, como los vehículos autoconducidos y los sistemas jurídicos automatizados, pero la única amenaza que suponen, si es que suponen alguna, es para los puestos de trabajo.

No es un problema menor, pero difícilmente existencial. Y la llegada de chatbots que pueden escribir redacciones y rellenar solicitudes de empleo por ti tampoco es AGI.

Los "grandes modelos lingüísticos" con los que se entrenan los chatbots los convierten en expertos en elegir la siguiente palabra más plausible. Esto puede producir ocasionalmente frases aleatorias que contengan nuevos datos o ideas útiles, pero no hay actividad intelectual en el proceso, excepto en el humano que reconoce que es útil.

Hay muchos motivos para preocuparse por cómo los programas informáticos "más inteligentes" destruirán puestos de trabajo (incluidos ahora los altamente cualificados), y también por lo fácil que se ha vuelto manipular la opinión con "deepfakes" y similares. Pero nada de eso necesitaba una conferencia de alto nivel en Bletchley Park.

Entonces, ¿por qué fueron todos allí y acabaron hablando de amenazas existenciales? Bueno, una posibilidad es que los líderes de los gigantes tecnológicos quisieran asegurarse de estar presentes en la elaboración de normas desde el principio, ya que seguramente habrá nuevas normas sobre IA en los próximos años.

La mayoría de esas normas versarán sobre asuntos comerciales mundanos, no sobre amenazas a la existencia humana. Tal vez le parezca inapropiado que las personas que van a ganar dinero con esas actividades comerciales sean las que dicten las normas.

Por otro lado, no cabe duda de que deberían participar en las decisiones sobre cualquier amenaza existencial derivada de sus nuevas tecnologías, por lo que tácticamente tiene más sentido que dirijan el debate en esa dirección. No son tontos.


Author

Gwynne Dyer is an independent journalist whose articles are published in 45 countries.

Gwynne Dyer