Los ataques de asteroides, la inteligencia artificial deshonesta, las armas autónomas, y tal vez uno o dos políticos despóticos, podrían destruir la civilización. Los Guardianes de la Tierra están aquí para salvarnos.
Suscríbete a DyN Noticias
Una noche de invierno de noviembre de 2016, un grupo internacional de 50 académicos se reunió para una cena a la luz de las velas en la antigua biblioteca del siglo XIV en Pembroke College, Cambridge, para discutir las terribles amenazas a las que se enfrentan las civilizaciones del mundo.
Un oyente de sombras jugando en las paredes con paneles de madera puede haber escuchado a Shahar Avin, un ingeniero de software israelí y experto en filosofía de la ciencia, discutir los peligros futuros de la inteligencia artificial («No se tratará más probablemente de un algoritmo que vende anuncios online, que se da cuenta de que puede vender más si sus lectores son otros robots, no humanos «). O tal vez Julius Weitzdörfer, el especialista alemán en desastres que se ocupa de las consecuencias legales de la catástrofe en Fukushima, analizando las implicaciones de la presidencia de Donald Trump ( “Hará que la gente sea consciente de que tiene que pensar en los riesgos, pero en un mundo donde no se tiene en cuenta la evidencia científica, todas las amenazas que enfrentamos aumentarán”). Leer más: De la guerra nuclear a la IA rebelde, las primeras 10 amenazas a las que se enfrenta la civilización
En el otro extremo de la mesa estaba Neal Katyal, un abogado estadounidense que actuó como fiscal general bajo Barack Obama y que representó a Apple en el caso de descifrado de San Bernardino. Explicó cómo la «brecha legal», la incapacidad de los legisladores para mantenerse al día con el cambio tecnológico, debilitó el poder de los gobiernos para protegernos.
Esta no era una escena de una nueva película de X-Men, sino un evento organizado por dos instituciones de Cambridge: el Centro para el Estudio del Riesgo Existencial (CSER, comúnmente conocido como «césar») y el Centro Leverhulme para el Futuro de la Inteligencia. . Para ellos, fue una velada bastante normal, en este caso después de una conferencia de Katyal. La discusión apocalíptica es estándar: ambos organismos son parte de un pequeño grupo de organizaciones en el Reino Unido y Estados Unidos que contratan académicos, científicos, abogados y filósofos con educación superior para estudiar el riesgo existencial.
La IA ha sido objeto de fantasía desde la revolución industrial, pero el rápido aumento de la potencia informática en el siglo XXI ha causado ansiedad en algunas de las mentes más racionales, informadas e inteligentes del mundo. En enero de 2015, Stephen Hawking, Elon Musk y el director de investigación de Google, Peter Norvig, se encontraban entre las docenas de expertos que firmaron una carta abierta pidiendo más investigación sobre el impacto potencial de la IA en la humanidad. La carta fue escrita originalmente por el Future of Life Institute para su difusión entre los investigadores de IA. La preocupación no ha hecho más que crecer desde entonces: Martin Rees, el astrónomo real, cosmólogo de Cambridge y cofundador de CSER, cree que la investigación del riesgo X es esencial porque, aunque la Tierra ha existido durante 45 millones de siglos, la nuestra es la primera en la que un una sola especie tiene una biosfera futura en sus manos.
¿Qué es un riesgo existencial?
****: El riesgo existencial, conocido por los practicantes como riesgo X, agrupa hipotéticos eventos futuros que podrían causar catástrofes globales, en el peor de los casos el fin de la civilización humana o la desaparición de la humanidad.
****: Las amenazas se pueden dividir en antropogénicas o creadas por el hombre (guerra nuclear, cambio climático) y no antropogénicas (asteroides, volcanes, alienígenas hostiles) y la que recibe la mayor atención y ha comenzado a catalizar la nueva disciplina sobre hace diez años, inteligencia artificial.
****: El Leverhulme Center for the Future of Intelligence (IFC) se estableció en 2016 para apoyar el trabajo sobre el impacto de la IA y reúne al equipo de investigadores de Bostrom de Cambridge, Imperial College London y el Centro de IA compatible con humanos en el Universidad de California, Berkeley.
****: Cambridge también tiene una organización de licencias, Future of Sentience Society, cofundada por Beth Barnes, una estudiante de informática, que también trabaja con CSER como «estudiante colaboradora».
X-risk aumenta el interés en la industria de la tecnología. CSER se creó en parte con el apoyo del cofundador de Skype, Jaan Tallinn, después de conocer a Huw Price, profesor de filosofía en Bertrand Russell en Cambridge, en una conferencia y descubrió que compartían preocupaciones sobre la inteligencia artificial y otras amenazas.
Tallin se preocupó después de leer los escritos de Eliezer Yudkowsky sobre IA y buscó unir mentes de varios campos de estudio para crear una nueva disciplina académica. «Hay un área fértil de estudio científico que se puede realizar en la intersección de la física, la informática y la filosofía», dice. «Puedes hacer un argumento filosófico, pero usa un modelo matemático que te mantiene bajo control y evita que digas tonterías, lo que hacen la mayoría de los filósofos, porque dicen cosas que están solo en sus intuiciones, y las intuiciones son defectuosas. Puede hacer un argumento filosófico que se base en un código de computadora o un modelo matemático, esta es una base muy sólida. Al mismo tiempo, la filosofía puede hacer que la ciencia sea coherente y proporcionar a sus conclusiones un marco y una dirección. «
«Si sientes que podríamos ser la última generación después de cuatro mil millones de años de evolución, te dan ganas de hacer algo al respecto» Nick Bostrom, fundador del Instituto Oxford del Futuro de la Inteligencia
Bostrom hace un punto similar cuando dice que FHI «formula preguntas que quizás debamos responder si las tecnologías futuras transforman la condición humana». Un ejemplo es que fácilmente podríamos estar de acuerdo en que los robots deberían compartir valores humanos. Pero, ¿cómo estamos de acuerdo con estos valores? Como comenta Stephen Cave, director ejecutivo de CFI, «Hemos estado pensando en estas preguntas durante 2.500 años y, de repente, es urgente. Es muy interesante». Leer más: La voluntad política es todo lo que necesitamos para eliminar la desigualdad. Trump podría ser el líder que necesitamos para inspirarlo
Risk X puede estirar los límites de la imaginación. Anders Sandberg, un teórico de la probabilidad polimática en FHI, analiza la posibilidad de que alguien convoque a un demonio para acabar con el mundo («¿Realmente puedes decir que la probabilidad es cero? Algunos dirían que sí, pero nos preguntamos, ¿cómo puedes estar seguro?» ), Y otros tienen cuidado de considerar los límites de la cognición humana (¿Cómo podemos saber que millones de mundos humanos anteriores no han sido borrados en el pasado por riesgos que pueden parecernos muy lejanos?).
Más importante aún, señala el director ejecutivo de CSER, Seán Ó Héigeartaigh, la mayor parte del documento tiene aplicaciones prácticas. Jane Heal, miembro del comité de gestión del CSER, por ejemplo, está estudiando «cómo podemos distanciar la parte reflexiva y desprendida del yo de su parte animal arrogante para que podamos unirnos para hacer una legislación que pueda reducir el cambio climático».
¿Pensar en todas estas preguntas mantiene despiertos a estos académicos? Bostrom se ríe, «La gente siempre pide eso». Sandberg dice que su respuesta estándar es: «Duermo muy bien por la noche porque al menos estoy haciendo algo al respecto». Tallin es más filosófica: “Realmente me hace apreciar mucho más el mundo. Si sientes que podríamos ser la última generación después de cuatro mil millones de años de evolución, te dan ganas de hacer algo al respecto, pero también te hace muy agradecido de estar vivo en primer lugar. «
Leer más: Las 10 mayores amenazas para la civilización y cómo los guardianes de la Tierra se preparan para ellas
Gran parte de las noticias de la ciencia de la tierra en un sólo sitio. noticias de Ciencia.