Los principales representantes en el desarrollo de sistemas de inteligencia artificial, entre ellos el CEO de OpenAI, Sam Altman, y el CEO de Google DeepMind, Demis Hassabis, firmaron una declaración en la que advierten sobre la tecnología que están construyendo, indicando que puede suponer algún día una amenaza para la existencia de la humanidad comparable a la de una guerra nuclear o una pandemia.
"Mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y la guerra nuclear", reza la declaración de una sola frase, publicada hoy por el Center for AI Safety (Centro para la Seguridad de la IA), una organización sin fines de lucro.
¿LA INTELIGENCIA ARTIFICIAL AMENAZA LA EXISTENCIA DE LA HUMANIDAD?
La idea de que la inteligencia artificial podría llegar a ser difícil de controlar y destruir a la humanidad, de forma accidental o deliberada, ha sido debatida durante mucho tiempo por los filósofos. Pero en los últimos seis meses, tras algunos sorprendentes y desconcertantes avances en el rendimiento de los algoritmos de IA, la cuestión se ha convertido en una discusión mucho más amplia y seria.
Además de Altman y Hassabis, la declaración está firmada por Dario Amodei, CEO de Anthropic, una startup dedicada al desarrollo de IA centrada en la seguridad. Otros firmantes son Geoffrey Hinton y Yoshua Bengio, dos de los tres académicos galardonados con el Premio Turing por su trabajo en el aprendizaje profundo, la tecnología que sustenta los avances modernos en el aprendizaje automático y la IA. También firmaron docenas de empresarios e investigadores que trabajan en los problemas más nuevos relacionados con esta tecnología.
"La declaración es una gran iniciativa", señala Max Tegmark, profesor de física del Instituto Tecnológico de Massachusetts y director del Future of Life Institute, una organización sin fines de lucro dedicada a los riesgos a largo plazo que plantea la IA. En marzo, el instituto de Tegmark publicó una carta en la que pedía una pausa de seis meses en el desarrollo de algoritmos avanzados de inteligencia artificial para poder evaluar los riesgos. La carta fue firmada por cientos de investigadores y directivos de IA, entre ellos Elon Musk.
Tegmark espera que la iniciativa aliente a los gobiernos y a la población en general a tomarse más en serio los riesgos que supone la inteligencia artificial para nuestra existencia. "El resultado ideal es que la amenaza de extinción debido a la IA se convierta en algo generalizado que permita a todos hablar de ella sin miedo a las burlas", añade.
Dan Hendrycks, director del Centro para la Seguridad de la IA, comparó el actual momento de preocupación en torno a la inteligencia artificial con el debate entre científicos suscitado por el desarrollo de las armas nucleares. "Tenemos que entablar las conversaciones que mantenían los científicos nucleares antes de la creación de la bomba atómica", destacó Hendrycks en una cita publicada junto con la declaración de su organización.
El actual tono de alarma está ligado a varios avances en el rendimiento de los algoritmos de IA conocidos como grandes modelos de lenguaje. Estos consisten en un tipo específico de red neuronal artificial que se entrena con enormes cantidades de texto escrito por humanos, para predecir las palabras que deberían seguir a una cadena determinada. Cuando se les suministran suficientes datos, y con un entrenamiento adicional en forma de retroalimentación humana sobre las respuestas correctas y equivocadas, son capaces de generar texto y responder a preguntas con notable elocuencia y aparente conocimiento, aunque lo que digan esté a menudo plagado de errores.
Estos modelos de lenguaje han demostrado ser cada vez más coherentes y capaces a medida que se les ha ido proporcionando más información y capacidad de procesamiento. El modelo más potente creado hasta ahora, el GPT-4 de OpenAI, es capaz de resolver problemas complejos, incluidos los que parecen requerir algunas formas de abstracción y razonamiento de sentido común.
Los modelos de lenguaje han ido mejorando en los últimos años, pero el lanzamiento de ChatGPT el pasado noviembre llamó la atención pública sobre el poder de los últimos programas de IA, además de los posibles problemas que pueden causar. ChatGPT y otros chatbots avanzados pueden mantener conversaciones coherentes y responder a todo tipo de preguntas aparentando una comprensión real. Pero estos programas también muestran prejuicios, inventan hechos y pueden ser inducidos a comportarse de formas extrañas y desagradables.
LA IA BAJO EL CONTROL E INTERESES CORPORATIVOS
Geoffrey Hinton, considerado una de las figuras más importantes e influyentes en el campo de la inteligencia artificial, dejó su puesto en Google en abril para hablar de su preocupación por la posibilidad de que la IA cada vez más capaz se salga de control.
Los gobiernos nacionales se centran progresivamente en los riesgos potenciales que plantea la inteligencia artificial y en cómo podría regularse. Aunque a los responsables de las políticas les preocupan sobre todo cuestiones como la desinformación generada por la IA y la pérdida de puestos de trabajo, también se han planteado algunos problemas relacionados con la existencia de la humanidad.
"Entendemos que la gente esté nerviosa por la forma en que puede cambiar nuestra manera de vivir. Nosotros también lo estamos", aseguró Sam Altman, CEO de OpenAI, en el Congreso de Estados Unidos a principios de este mes, como reportó The Wall Street Journal. "Si esta tecnología va mal, puede resultar bastante mal".
Sin embargo, no todos están de acuerdo con el escenario apocalíptico de la inteligencia artificial. Yann LeCun, quien ganó el Premio Turing con Hinton y Bengio por el desarrollo del aprendizaje profundo, se ha mostrado crítico con las predicciones fatalistas sobre los avances en IA y, por el momento, sigue sin firmar la carta.
Y algunos investigadores de la IA que han estado estudiando cuestiones más inmediatas, como el sesgo y la desinformación, consideran que la repentina preocupación por el riesgo teórico a largo plazo desvía la atención de los problemas actuales.
Meredith Whittaker, presidenta de la Signal Foundation, además de cofundadora y consejera en jefe del AI Now Institute, una organización sin fines de lucro especializada en la IA y la concentración de poder en la industria tecnológica, sostiene que muchos de los firmantes de la declaración probablemente creen que los riesgos son reales, pero que la alarma "no capta los verdaderos problemas".
Añade que el debate sobre el riesgo para la existencia de la humanidad presenta las nuevas capacidades de la inteligencia artificial como si fueran un resultado del progreso científico natural, en lugar de un reflejo de productos moldeados por los intereses y el control corporativos. "Este discurso es una especie de intento de borrar el trabajo que ya se ha hecho para identificar daños concretos y limitaciones muy significativas de estos sistemas". Estas cuestiones van desde el sesgo de la IA hasta la capacidad de interpretación de los modelos y el poder corporativo, resalta Whittaker.
"Mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y la guerra nuclear", reza la declaración de una sola frase, publicada hoy por el Center for AI Safety (Centro para la Seguridad de la IA), una organización sin fines de lucro.
¿LA INTELIGENCIA ARTIFICIAL AMENAZA LA EXISTENCIA DE LA HUMANIDAD?
La idea de que la inteligencia artificial podría llegar a ser difícil de controlar y destruir a la humanidad, de forma accidental o deliberada, ha sido debatida durante mucho tiempo por los filósofos. Pero en los últimos seis meses, tras algunos sorprendentes y desconcertantes avances en el rendimiento de los algoritmos de IA, la cuestión se ha convertido en una discusión mucho más amplia y seria.
Además de Altman y Hassabis, la declaración está firmada por Dario Amodei, CEO de Anthropic, una startup dedicada al desarrollo de IA centrada en la seguridad. Otros firmantes son Geoffrey Hinton y Yoshua Bengio, dos de los tres académicos galardonados con el Premio Turing por su trabajo en el aprendizaje profundo, la tecnología que sustenta los avances modernos en el aprendizaje automático y la IA. También firmaron docenas de empresarios e investigadores que trabajan en los problemas más nuevos relacionados con esta tecnología.
"La declaración es una gran iniciativa", señala Max Tegmark, profesor de física del Instituto Tecnológico de Massachusetts y director del Future of Life Institute, una organización sin fines de lucro dedicada a los riesgos a largo plazo que plantea la IA. En marzo, el instituto de Tegmark publicó una carta en la que pedía una pausa de seis meses en el desarrollo de algoritmos avanzados de inteligencia artificial para poder evaluar los riesgos. La carta fue firmada por cientos de investigadores y directivos de IA, entre ellos Elon Musk.
Tegmark espera que la iniciativa aliente a los gobiernos y a la población en general a tomarse más en serio los riesgos que supone la inteligencia artificial para nuestra existencia. "El resultado ideal es que la amenaza de extinción debido a la IA se convierta en algo generalizado que permita a todos hablar de ella sin miedo a las burlas", añade.
Dan Hendrycks, director del Centro para la Seguridad de la IA, comparó el actual momento de preocupación en torno a la inteligencia artificial con el debate entre científicos suscitado por el desarrollo de las armas nucleares. "Tenemos que entablar las conversaciones que mantenían los científicos nucleares antes de la creación de la bomba atómica", destacó Hendrycks en una cita publicada junto con la declaración de su organización.
El actual tono de alarma está ligado a varios avances en el rendimiento de los algoritmos de IA conocidos como grandes modelos de lenguaje. Estos consisten en un tipo específico de red neuronal artificial que se entrena con enormes cantidades de texto escrito por humanos, para predecir las palabras que deberían seguir a una cadena determinada. Cuando se les suministran suficientes datos, y con un entrenamiento adicional en forma de retroalimentación humana sobre las respuestas correctas y equivocadas, son capaces de generar texto y responder a preguntas con notable elocuencia y aparente conocimiento, aunque lo que digan esté a menudo plagado de errores.
Estos modelos de lenguaje han demostrado ser cada vez más coherentes y capaces a medida que se les ha ido proporcionando más información y capacidad de procesamiento. El modelo más potente creado hasta ahora, el GPT-4 de OpenAI, es capaz de resolver problemas complejos, incluidos los que parecen requerir algunas formas de abstracción y razonamiento de sentido común.
Los modelos de lenguaje han ido mejorando en los últimos años, pero el lanzamiento de ChatGPT el pasado noviembre llamó la atención pública sobre el poder de los últimos programas de IA, además de los posibles problemas que pueden causar. ChatGPT y otros chatbots avanzados pueden mantener conversaciones coherentes y responder a todo tipo de preguntas aparentando una comprensión real. Pero estos programas también muestran prejuicios, inventan hechos y pueden ser inducidos a comportarse de formas extrañas y desagradables.
LA IA BAJO EL CONTROL E INTERESES CORPORATIVOS
Geoffrey Hinton, considerado una de las figuras más importantes e influyentes en el campo de la inteligencia artificial, dejó su puesto en Google en abril para hablar de su preocupación por la posibilidad de que la IA cada vez más capaz se salga de control.
Los gobiernos nacionales se centran progresivamente en los riesgos potenciales que plantea la inteligencia artificial y en cómo podría regularse. Aunque a los responsables de las políticas les preocupan sobre todo cuestiones como la desinformación generada por la IA y la pérdida de puestos de trabajo, también se han planteado algunos problemas relacionados con la existencia de la humanidad.
"Entendemos que la gente esté nerviosa por la forma en que puede cambiar nuestra manera de vivir. Nosotros también lo estamos", aseguró Sam Altman, CEO de OpenAI, en el Congreso de Estados Unidos a principios de este mes, como reportó The Wall Street Journal. "Si esta tecnología va mal, puede resultar bastante mal".
Sin embargo, no todos están de acuerdo con el escenario apocalíptico de la inteligencia artificial. Yann LeCun, quien ganó el Premio Turing con Hinton y Bengio por el desarrollo del aprendizaje profundo, se ha mostrado crítico con las predicciones fatalistas sobre los avances en IA y, por el momento, sigue sin firmar la carta.
Y algunos investigadores de la IA que han estado estudiando cuestiones más inmediatas, como el sesgo y la desinformación, consideran que la repentina preocupación por el riesgo teórico a largo plazo desvía la atención de los problemas actuales.
Meredith Whittaker, presidenta de la Signal Foundation, además de cofundadora y consejera en jefe del AI Now Institute, una organización sin fines de lucro especializada en la IA y la concentración de poder en la industria tecnológica, sostiene que muchos de los firmantes de la declaración probablemente creen que los riesgos son reales, pero que la alarma "no capta los verdaderos problemas".
Añade que el debate sobre el riesgo para la existencia de la humanidad presenta las nuevas capacidades de la inteligencia artificial como si fueran un resultado del progreso científico natural, en lugar de un reflejo de productos moldeados por los intereses y el control corporativos. "Este discurso es una especie de intento de borrar el trabajo que ya se ha hecho para identificar daños concretos y limitaciones muy significativas de estos sistemas". Estas cuestiones van desde el sesgo de la IA hasta la capacidad de interpretación de los modelos y el poder corporativo, resalta Whittaker.