Centro para el Estudio del Riesgo Existencial

Centro para el Estudio del Riesgo Existencial
Tipo Centro de investigación
Objetivos Educación superior e investigación
Fundación 2012
Fundador Huw Price, Lord Martin Rees, Jaan Tallinn
Sede central Cambridge, Inglaterra
Sitio web cser.org

El Centro para el Estudio del Riesgo Existencial (CSER) es un centro de investigación de la Universidad de Cambridge creado para el estudio de posibles amenazas catastróficas causadas por la tecnología presente o futura. Los fundadores del centro fueron Huw Price (profesor de filosofía en la Universidad de Cambridge), Sir Martin Rees (astrónomo y antiguo presidente de la Royal Society) y Jaan Tallinn (programador informático y cofundador de Skype).[1]​ Entre los asesores del CSER se encuentran el filósofo Peter Singer, el informático Stuart J. Russell, el estadístico David Spiegelhalter y los cosmologistas Stephen Hawking y Max Tegmark.[2]​ Su objetivo es "dirigir una pequeña fracción de los grandes recursos intelectuales de Cambridge, y de la reputación construida sobre su pasada y presente preeminencia, a la tarea de garantizar que nuestra propia especie tenga un futuro a largo plazo."[3]

Áreas de enfoque[editar]

La fundación del centro fue anunciada en noviembre de 2012. Su nombre proviene concepto de riesgo existencial, o riesgo "donde un resultado adverso podría aniquilar la vida inteligente originada en la Tierra o reducir permanente y drásticamente su potencial". Este concepto fue declarado por el filósofo de la Universidad de Oxford, Nick Bostrom.[4]​ Esto incluye tecnologías que podrían agotar permanentemente los recursos de la humanidad, o bloquear futuros avances científicos, además de aquellas que ponen a la propia especie en peligro.

Entre los riesgos a estudiar por el centro están aquellos que puedan aparecer con el desarrollo de la inteligencia artificial, riesgos que en algunos artículos de prensa son comparados con el levantamiento de robots de la película The Terminator.[5][6]​ Sobre este caso, el profesor Price manifestó que "parece una predicción razonable que, en algún momento de este siglo o del siguiente, la inteligencia escapará de las restricciones de la biología". Price añadió que, de ocurrir, "ya no seremos los seres más inteligentes" y nos arriesgaremos a estar a merced de "máquinas que no son maliciosas, pero cuyos intereses no nos incluyen a nosotros".[7]​ Price ha mencionado también que la Biología sintética es peligrosa porque "como resultado de nuevas innovaciones, los pasos necesarios para producir un virus armado u otro agente bioterrorista han sido dramáticamente simplificados", y que en consecuencia "el número de individuos necesarios para eliminarnos a todos está disminuyendo abruptamente".[8][9]

Otras tecnologías que el CSER busca evaluar son, entre otras, la nanotecnología molecular[10]​ y los peores escenarios del cambio climático.[11]

Referencias[editar]

  1. Lewsey, Fred (25 de noviembre de 2012). «Humanity's last invention and our uncertain future». Research News. Consultado el 24 de diciembre de 2012. 
  2. «About CSER». Centro para el Estudio del Riesgo Existencial. 
  3. Connor, Steve (14 de septiembre de 2013). «Can We Survive?». The New Zealand Herald. 
  4. Bostrom, Nick (2002). «Existential Risks: Analyzing Human Extinction Scenarios». Journal of Evolution and Technology 9 (1). Consultado el 27 de marzo de 2014. 
  5. Gaskell, Adi (27 de noviembre de 2012). «Risk of a Terminator Style Robot Uprising to be Studied». Technorati. Archivado desde el original el 30 de noviembre de 2012. Consultado el 2 de diciembre de 2012. 
  6. Naughton, John (2 de diciembre de 2012). «Could robots soon add to mankind's existential threats?». The Observer. Consultado el 24 de diciembre de 2012. 
  7. Hui, Sylvia. «Cambridge to study technology's risks to humans». Associated Press. Archivado desde el original el 1 de diciembre de 2012. Consultado el 30 de enero de 2012. 
  8. Paramaguru, Kharunya (29 de noviembre de 2012). «Rise of the machines: Cambridge University to study technology’s ‘existential risk’ to mankind». Time. Consultado el 2 de mayo de 2014. 
  9. «Riesgos biológicos globales catastróficos». Consultado el 29 de mayo de 2015. 
  10. «Nanotecnología molecular». Centro para el Estudio del Riesgo Existencial. Archivado desde el original el 3 de mayo de 2014. Consultado el 4 de mayo de 2014. 
  11. «Escenarios cambio climático». Consultado el 30 de diciembre de 2017. 

Enlaces externos[editar]