
El riesgo de que la superinteligencia artificial extinga a la humanidad ya es del 25%, dicen los expertos
.
Según Elon Musk, 2030 será el año en el que el hombre llegue finalmente a Marte. Una previsión poco fiable, claro, ya que el fundador de Tesla lleva tiempo retrasando el acontecimiento. Igualmente, Sam Altman ha dicho que será más o menos en ese año cuando la humanidad logre viajar por el espacio, en parte gracias a las proezas que logre traer consigo la tecnología.
¿Por qué hay tanta obsesión con el año 2030? En teoría, según opinan algunos expertos, porque será alrededor de entonces cuando la inteligencia artificial logre evolucionar en una superinteligencia (o IA general), y superar a los seres humanos en todo. ¿El problema? Que también hay quienes piensa que será en ese momento cuando la IA extinga definitivamente al ser humano.
2030, ¿el año de extinción de la humanidad?
Supuestamente, las profecías mayas situaban el fin del mundo en 2012. O eso se repitió hasta la saciedad en su momento, sin que (afortunadamente) terminara por pasar nada. Los vaticinios catastrofistas, en cambio, ya han señalado otra fecha en el calendario: 2030. Solo que en esta ocasión la amenaza en la que se basan los expertos es otra, mucho más tangible, la IA.
O, para ser más precisos, la superinteligencia artificial. ¿Y por qué concretamente en ese año? Según un nuevo artículo publicado en AInvest, por la inversión que se está realizando hoy. Según este, las principales empresas tecnológicas han invertido más de 350.000 millones de dólares en IA en 2025, acelerando el desarrollo de modelos avanzados sin medir adecuadamente sus riesgos.
Las conclusiones del artículo, aunque probablemente subjetivas, resultan contundentes: los especialistas estiman que para 2030 la posibilidad de que la IA cause una catástrofe capaz de acabar con la humanidad ha crecido hasta el 25%. Es decir, una cifra mucho más elevado que el grado de amenaza que se le suele dar a una hecatombe nuclear o una pandemia letal para el ser humano.
Aunque este pronóstico pueda sonar especialmente funesto, no son pocos quienes se muestran más o menos de acuerdo con él. Sin ir más lejos, en el artículo también se menciona que el 42% de los CEO encuestados en una Cumbre de CEO celebrada en Yale, se mostraron de acuerdo en que la IA podría destruir a la humanidad en los próximos cinco o diez años.
La inteligencia artificial podría ser peor que las armas nucleares
Entre los argumentos que se dan para ofrecer esta tesis, destacan los incidentes en los que modelos avanzados de IA han demostrado comportamientos de autopreservación, como tácticas de chantaje para evitar ser desactivados. Por ejemplo, durante pruebas del modelo Claude Opus 4 de Anthropic, la IA utilizó chantaje en el 96% de los casos para evitar ser apagada.
Muchos expertos, además, piden que la IA se regule al mismo nivel que las armas nucleares, o se tomen medidas como sucede, al menos en teoría, con la bioseguridad. ¿Estarán en lo cierto quienes piensan que 2030 puede ser una fecha terrible o, en realidad, sucederá algo similar a lo que pasó con el llamado "efecto 2000" (es decir, nada)?. Por el bien de todos, ojalá sea lo segundo.
Fuente: ComputerHoy