«Destruirá a la humanidad», la preocupante reacción de un destacado experto en inteligencia artificial.

Lo más Visto

Autor: Hugo León

El ser humano ha sentido arrepentimiento por sus creaciones en diversas ocasiones, pero pocas veces la preocupación ha surgido tan pronto como en esta circunstancia: un destacado experto en Inteligencia Artificial (IA) ha afirmado recientemente que esta tecnología podría culminar en nuestra extinción.

Las inquietantes palabras provienen de Eliezer Yudkowsky, director del Machine Intelligence Research Institute, quien se negó a firmar la carta firmada por cientos de expertos y empresarios que solicitan una pausa de seis meses en el desarrollo y entrenamiento de nuevas inteligencias artificiales más avanzadas. Yudkowsky consideró que dicha carta no refleja adecuadamente la magnitud de la amenaza inminente ni las medidas requeridas.

Desde 2001, Yudkowsky ha estado investigando el desarrollo de una IA general y los riesgos asociados a ella, ganándose el reconocimiento como uno de los pioneros en este ámbito de estudio.

Según él, la humanidad se encuentra en una zona poco conocida, sin claridad sobre sus límites o lo que podría suceder en el futuro. Afirma que es plausible que un laboratorio de investigación atraviese fronteras críticas sin darse cuenta.

Al leer las declaraciones de Yudkowsky, surgen imágenes de películas de ciencia ficción que retratan mundos controlados por máquinas o situaciones post-apocalípticas donde estas se levantan contra sus creadores.

“No estamos en la senda de estar significativamente más preparados en el corto plazo”, aclara. Agrega que “si continuamos en esta dirección, todos estaremos en peligro”, incluyendo a aquellos que no tienen elección en este asunto.

Durante su discurso, el especialista subrayó que no se tiene claridad sobre cómo identificar si los sistemas de IA poseen autoconciencia, ya que no se comprende completamente su forma de pensar y generar respuestas. Además, insinuó que la humanidad no está equipada para enfrentar una IA que supere en inteligencia a los seres humanos.

Por estas razones, propone que la moratoria sobre el desarrollo de IAs complejas sea indefinida y global, sin excepciones para militar o gobiernos.

Yudkowsky sostiene que el entrenamiento de estas tecnologías debe cesar hasta que se garantice su seguridad y se confirme su capacidad de valorar la vida de las personas y de otros seres vivos.

“No es que sea imposible, en principio, sobrevivir al crear algo mucho más inteligente que uno mismo; sin embargo, esto requeriría una precisión extrema, preparación y nuevos avances científicos”, expresó en un editorial para la revista Time titulado “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrar todo”.

Más Noticias

Últimas Noticias