Innovation
Forskarna ska rädda oss från undergången
Kärnvapenkrig är just nu det mest akuta hotet mot mänskligheten. Andra, minst lika potenta, faror finns runt knuten. Inte minst mer avancerade biovapen och datorer som är på väg att bli för smarta för vårt eget bästa. Hur vi ska överleva dessa har forskare inom programmet Existential risk to humanity ägnat hösten åt att fundera på.
Att forska om domedagen kan kännas lite udda men det är i dag ett växande vetenskapligt fält. Och ett högst seriöst sådant.
– Det handlar framför allt om att analysera olika risker, säger Olle Häggström, professor i matematisk statistik på Chalmers och värd för forskningsprogrammet Existential risk to humanity vid Göteborgs universitet och Chalmers.
Under september och oktober samlade programmet, som är en tillfällig satsning, allt från filosofer till fysiker från ett flertal länder för att de gemensamt skulle kunna ta ett helhetsgrepp runt stora arthotande utmaningar.
– Frågan om eller när allt kommer att vara över har vi inte lyckats besvara. Däremot har vi enats om att vi bör göra vårt bästa för att förbättra oddsen för att det inte ska ske, menar Olle Häggström.
Läs mer:
De medverkande forskarna har därför analyserat olika scenarier och vägt dem mot varandra för att sedan fundera på vad vi ska göra för att minimera riskerna.
En svårighet inom forskningsfältet är att bedöma sannolikheten för att något som aldrig tidigare har hänt kommer att inträffa i framtiden. Dessutom finns det skillnader i vad vi kan och bör göra när det gäller naturliga hot kontra de risker som vi har skapat åt oss själva.
– Vi måste förhålla oss till samtliga hot om vi vill att mänskligheten ska kunna fortsätta att blomstra. Men under det närmaste århundradet kan vi sannolikt strunta i supernovor och andra kosmiska hot och i stället koncentrera oss på de risker vi har skapat själva.
Ett eventuellt kärnvapenkrig är för ögonblicket det i särklass största hotet. Därefter anser forskarna att vi bör hålla ett öga på syntetisk biologi, som skapar förutsättningar för potenta biovapen, nanoteknik och artificiell intelligens. Risken med ai är att datorer som agerar alltmer på egen hand kan sätta i gång kedjereaktioner bortom mänsklig påverkan.
– Tidigare har vi tänkt att mänsklig utplåning kommer att vara ett resultat av naturliga händelser, olyckor eller misstag. Nu kommer studier som visar att det finns människor som vill låta det ske med avsikt. Bland annat har X-Risks Institute i USA studerat skolskjutningar i USA och kommit fram till att många av förövarna hade gjort slut på hela mänskligheten om de hade haft möjligheten. Det som har hindrat dem är att de än så länge inte har de tekniska förutsättningarna.
Läs mer:
Trots att Olle Häggström ägnar dagarna åt apokalypsen hävdar han att han sover gott om nätterna.
– När jag för tio år sedan började bli medveten om den här problematiken valde jag först att försöka förtränga insikten. Men nu när jag låter tanken få fritt spelrum inser jag att det är bättre att ta tag i dessa frågor än att förtränga dem. Inte minst eftersom jag även har blivit medveten om de fantastiska möjligheter som finns för mänskligheten, förutsatt att vi lär oss att hantera de risker som finns.
Känslomässiga skäl kan vara en drivkraft för den som vill driva klimatfrågan eller någon annan av framtidens största utmaningar framåt, men att bli för emotionell kan vara ett hinder, menar Olle Häggström.
– Känslor kan hjälpa oss att inte glömma vilka värden som står på spel, men givet det bör vi försöka förhålla oss rationellt.