La inteligencia artificial y su avance desmedido tiene con los pelos de punta a los grandes líderes tecnológicos del planeta, tanto así que muchos se han aventurado a lanzar fuertes profecías sobre cómo la humanidad podría sucumbir ante el poderío de esta herramienta que podría salirse de control.
Hace poco se conoció que estos magnates e inversores que promovieron el desarrollo de la inteligencia artificial han firmado una carta para lograr detener, por seis meses, el trabajo en este sentido, pues buscan regulaciones, de la mano con los gobiernos del mundo, para poner límites que impidan que el crimen saque provecho de esta herramienta.
Pese a esto, hay alguien bastante pesimista que, incluso, se negó a firmar ese documento. Se trata de Eliezer Yudkowsky, experto en IA y a quien conocen en el medio como ‘activista del racionalismo’.
Este estadounidense afirmó que aunque respeta a quienes estamparon su nombre en esta carta, no comparte lo escrito allí, pues considera que lo consignado allí no es corresponde a la realidad, ya que cree que se está subestimando el poder de la inteligencia artificial.
“Esta moratoria de seis meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”, explicó Yudkowsky.
Para el defensor de la inteligencia artificial amigable, el problema no es el uso que las personas puedan darles a las diferentes herramientas que han nacido como ChatGPT, la más promocionada hasta el momento, sino a la evolución que esta tenga en relación con los humanos.
“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de ‘tal vez exista alguna remota posibilidad’ [sino en el de] obviamente será lo que pase”, explicó el hombre de 43 años, quien además utilizó una comparación entre una competencia entre el Autralophitecus y el Homo Sapiens.
Yudkowsky cree que la inteligencia artificial percibe a los humanos como cosas hechas de átomos y que el desafío es qué tan sensible puede ser esta ante la humanidad, algo, que asegura, no va a pasar y que podría tener consecuencias desastrosas.
Lea más en SEMANA
Si quieres recibir en tu celular esta y otras informaciones descarga Telegram, ingresa al link https://t.me/albertorodnews y dale click a +Unirme.