¿Qué tan cerca estamos de que la Inteligencia Artificial finalmente nos sobrepase?

Nuestros recuerdos sobre la tecnología del pasado cada vez parecen más difusos. El primer iPod apenas cumplirá 20 años, pero los gadgets que le siguieron han avanzado tanto que ese primer equipo que considerábamos casi mágico ya no es sino una reliquia del pasado. ¿A dónde nos llevarán las siguientes dos décadas?

El futuro del automovilismo es eléctrico, pero también esperamos los autos autónomos que eviten accidentes y manejen por nosotros. Hay quienes esperan el metaverso y poder vivir aún más inmersos en la vida digital, alejándonos del mundo físico al máximo y otros esperan la llegada de «La singularidad».

La singularidad es como algunas personas han llamado a ese momento en que la tecnología nos superará intelectualmente, cuando la Inteligencia Artificial finalmente sobrepase la capacidad de los humanos y sea más poderosa que nosotros, tanto que pueda mejorarse rápidamente y convertirnos en seres obsoletos para el «progreso».

¿Qué tan cerca estamos de que la Inteligencia Artificial finalmente nos sobrepase? - singularidad

La singularidad significa el momento en que las máquinas toman el control. No necesariamente como sucede en Matrix, pero se cree que es un punto de inflexión en la historia de la humanidad, un momento donde podremos curar las enfermedades, el hambre, terminar con las guerras, el cambio climático y vivir en una utopía gracias a que la tecnología nos permitirá lograr todo rápidamente. Otros creen que sucederá exactamente lo que pasa en películas como Matrix y al darse cuenta del poder que tienen, las máquinas decidirán acabar con nosotros.

¿Realmente puede pasar eso? Libros como Superintelligence: Paths, Dangers, Strategies, Life 3.0: Being Human in the age of Artificial Intelligence o Human Compatible: Artificial Intelligence and the Problem of Control son libros que buscan dar respuesta esa pregunta y aunque el avance de la tecnología parece llevarnos inevitablemente a ello en muy poco tiempo, el escritor Ted Chiang tiene una contrapropuesta.

De acuerdo al escritor de ciencia ficción y experto en tecnología, no debemos preocuparnos porque una computadora pueda optimizarse hasta ser más inteligente que nosotros y mientras nosotros no podamos comprender nuestro propio cerebro e inteligencia, no hay mucho que temer. A pesar de los avances tecnológicos, podemos hacer que una computadora implemente programas nunca antes creados, pero no que lo haga de manera continua sin interacción humana.

¿Qué tan cerca estamos de que la Inteligencia Artificial finalmente nos sobrepase? - codigo

Imaginemos que tenemos una I.A. programa que es tan inteligente y capaz como el programador de computadoras humano promedio. Ahora suponga que aumentamos la velocidad de su computadora cien veces y dejamos que el programa se ejecute durante un año. Eso sería el equivalente a encerrar a un ser humano promedio en una habitación durante cien años, sin nada que hacer excepto trabajar en una tarea de programación asignada. Muchos seres humanos considerarían esto como una sentencia de prisión infernal, pero, a los efectos de este escenario, imaginemos que la A.I. no siente lo mismo. Asumiremos que la A.I. tiene todas las propiedades deseables de un ser humano, pero no posee ninguna de las otras propiedades que actuarían como obstáculos en este escenario.

Así que ahora tenemos una inteligencia artificial equivalente a humanos, eso es gastar cien años-persona en una sola tarea. ¿Qué tipo de resultados podemos esperar que logre? Supongamos que esta A.I. podría escribir y depurar mil líneas de código por día, lo que es un nivel prodigioso de productividad. A ese ritmo, un siglo sería casi suficiente tiempo para escribir Windows XP, que supuestamente constaba de cuarenta y cinco millones de líneas de código. Es un logro impresionante, pero está muy lejos de ser capaz de escribir un A.I. más inteligente que sí misma. Creando una IA más inteligente requiere más que la capacidad de escribir un buen código; Requeriría un gran avance en A.I. investigación, y eso no es algo que un programador de computadoras promedio pueda lograr, sin importar cuánto tiempo le dediques.

La única manera en que Chiang ve posible la creación de algún tipo de singularidad es a través de la colaboración humana, de buscar a las mejores mentes de todo el mundo y reunirlas para trabajar por años sin que tengan que preocuparse por ninguna otra cosa que crear tecnología que el mundo nunca haya visto. Esto requeriría de cooperación mundial que no existe y que posiblemente nunca se concrete, por lo que a pesar de que nos gusta imaginar el inicio del fin con las máquinas super inteligentes, hoy podemos dormir tranquilos.