Texto: Hugo León
Una carta abierta, firmada por más de mil 100 destacadas personalidades de los sectores de negocios, ciencias y tecnología, incluyendo expertos en inteligencia artificial (IA), solicita una pausa de al menos seis meses en el desarrollo de sistemas que sean más avanzados que el recientemente lanzado GPT-4 de OpenAI. Esta solicitud se basa en la identificación de riesgos potenciales para la humanidad y la sociedad.
Para ilustrar la magnitud de quienes respaldan esta carta, se pueden mencionar algunos nombres prominentes como Elon Musk, fundador y CEO de SpaceX, Twitter y Tesla; Steve Wozniak, cofundador de Apple; Evan Sharp, cofundador de Pinterest; Jaan Tallinn, cofundador de Skype; así como académicos, investigadores y fundadores de grupos que desarrollan IA, en adición a empresarios e ingenieros de Meta, entre otros.
Es curioso que hasta ahora ningún miembro de OpenAI, la organización detrás del modelo de lenguaje GPT-4, haya firmado esta carta. De igual forma, ningún representante de Anthropic, que sostiene haberse separado de OpenAI con el objetivo de crear un chatbot de IA más seguro, ha añadido su nombre a la misiva.
Sin embargo, dado que es una carta abierta, es posible que en algún momento los expertos de dichos grupos decidan firmarla.
La carta menciona investigaciones de renombre de los principales laboratorios de IA que evidencian que estos sistemas, con inteligencia comparable a la humana, pueden suponer profundos riesgos y marcar un cambio significativo en la historia de la vida en el planeta.
La comunicación subraya que, en este contexto, es fundamental planificar y gestionar adecuadamente los recursos implicados.
“Desafortunadamente, este nivel de planificación y gestión no se está llevando a cabo, a pesar de que en los últimos meses los laboratorios de IA han iniciado una carrera desenfrenada para desarrollar e implementar mentes digitales cada vez más poderosas”.
¿Para qué se propone una pausa en el desarrollo de la IA?
La carta señala que ni siquiera los creadores de estos sistemas pueden entender, predecir o controlar de manera confiable a las IA y advierte que estos sistemas están alcanzando un nivel de competencia con humanos en tareas generales.
Emitida por el Instituto sin fines de lucro Future of Life, esta misiva ha capturado la atención del mundo, mientras millones de personas en todo el planeta son atraídas por las posibilidades que ofrece la inteligencia artificial.
No obstante, los firmantes enfatizan que los temores de aquellos que ven la IA con desconfianza no son solo ilusiones: “los sistemas potentes de IA deberían ser desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.
Respecto a la pausa, se sugiere que sirva para crear e implementar conjuntos de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzadas, que cuenten con supervisión de expertos independientes para garantizar que los sistemas de IA sean seguros más allá de toda duda razonable.
Las preocupantes preguntas planteadas en la carta
El contenido es reflexivo y plantea interrogantes sobre lo que podría suceder si no se regula el desarrollo de las IA de manera adecuada.
Dentro de las preguntas formuladas se encuentran: “¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y desinformación?” o “¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento?”.
También se cuestiona si “deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y hacernos obsoletos”.
Por último, pero no menos preocupante, la carta se pregunta: “¿Debemos arriesgar el control de nuestra civilización?”.