En el panorama actual, dominado por predicciones apocalípticas y promesas utópicas, surge una voz que busca el equilibrio. Nicolás Martorell, neurocientífico e ingeniero de software de la Universidad de Buenos Aires, aborda el fenómeno de la inteligencia artificial en su libro «¿Qué es (y qué no es) la inteligencia artificial?». Su propuesta intenta navegar entre el alarmismo extremo y el optimismo ingenuo que caracterizan gran parte del discurso público.
Entre el miedo y la esperanza desmedida
Martorell observa que la narrativa sobre la IA oscila entre dos polos. Por un lado, se encuentra el dramatismo que augura el fin de la humanidad. Por el otro, un tecnooptimismo que presenta a la IA como la solución definitiva a todos los males, desde las enfermedades hasta la muerte misma. El autor señala que, mientras las promesas positivas suelen ser vagas y promovidas por figuras controvertidas, las advertencias de numerosos expertos pidiendo prudencia y moratorias son cada vez más fuertes y específicas.
La carrera hacia una inteligencia superior
El libro describe una carrera tecnológica ya desatada, impulsada por el enorme botín económico que supone desarrollar la primera inteligencia artificial general (IAG). Esta IAG representaría una superinteligencia capaz de superar al intelecto humano en todos los campos. El riesgo, según Martorell, reside en que dicha entidad podría desarrollar motivaciones no alineadas con los intereses o la supervivencia de la humanidad.
Cajas negras y consecuencias imprevisibles
Uno de los puntos centrales de la obra es el concepto de «caja negra». El neurocientífico subraya que ni siquiera los ingenieros que las crean comprenden completamente los procesos internos de los sistemas de IA actuales. Esta opacidad técnica, sumada a la velocidad del desarrollo, ocurre sin los resguardos éticos y morales que una tecnología de tal potencia demandaría.
Un futuro en la balanza
Las implicaciones son profundas y trascienden lo tecnológico. Martorell analiza peligros concretos, como la obsolescencia del concepto mismo de empleo y la posibilidad de que la humanidad sea considerada un estorbo por entidades más inteligentes. El libro, presentado como una «guía básica», funciona en realidad como un resumen riguroso de lo que el autor considera podría ser el error más grande de la historia.
Si bien Martorell no hace un llamado explícito a detener todo desarrollo, la lectura deja flotando una pregunta inevitable: ¿estamos avanzando hacia un futuro de subordinación ante superinteligencias? Su obra invita a una reflexión urgente y despojada de sensacionalismo sobre el camino que la sociedad está tomando.

