Att förutsäga världen. Prediktionens existentiella ångest

Efter en god natts sömn, och en powerwalk med Rara Dottern imorse är hjärnan fit for fight igen. Men jag tycker ändå vi tar det lite lugnt och ägnar oss åt matematik.

Det är tydligen Mathematics awareness month nu, läste jag. I år handlar det om prediktion. Det är intressant, sådant ägnar jag en väldigt stor del av mitt yrkesliv åt. På ett tillämpat vis. Dvs, jag predikterar.

När man ska göra en prediktion, behöver man en (matematisk) modell av den process man vill prediktera. Eftersom det, i min värld, lyckligen ofta är fysikaliska processer det handlar om, finns det några fysikaliska lagar man kan använda sig av för att åstadkomma den här modellen.

Sen kan det hända att allt faktiskt, hör och häpna, inte kan beskrivas med fysikaliska lagar, man får ta till approximativa samband, korrelationer, som tagits fram med hjälp av experiment. Så modellen består av en blandning av fysikaliska lagar och korrelationer. Som man förstår gäller de fysikaliska lagarna i ett ganska stort ”arbetsområde” (tänk Newtons gravitationslag som gäller dig här på jorden, liksom planeterna i solsystemet), medan korrelationerna förstås bara gäller i det arbetsområde som man hade data ifrån när man tog fram dem.

För att se att modellen fungerar som den ska, jämför man modellens resultat mot mätningar. Låt oss inte gå in så mycket på det, då kommer vi att tappa bort oss. Låt oss bara säga att inte ens mätningar är en sann bild av verkligheten. Mätningar görs med instrument, och instrumenten tolkar verkligheten, det kan vara så enkelt att instrumentet bara fördröjer mätvärdet lite, det tar lite tid att mäta och skicka ut mätvärdet. Som delay i en telefonsamtal via satellit. Instrumentet kan förvränga mätvärdet också (låter brorsan verkligen sådär?), eller så kan det knastra på ledningarna så man knappt hör vad brorsan säger (det kan introduceras brus i mätningen). Och hur noggrant man kan mäta beror på instrumentets precision.

Av allt detta förstår man att det finns vissa osäkerheter, man inte kan använda sin modell hur som helst, man får tänka på att man inte extrapolerar utanför modellens giltighetsområde, helt enkelt. Om man gör det, kan man definitivt vara säker på att resultatet är om inte helt fel (det beror på bl a på hur snäva korrelationer man har, och hur man omvandlat sin modell från ekvationer till datorkod), så i alla fall osäkert.

Och det här är väl själva kärnan i prediktionen, dess existentiella ångest; hur kan man använda sin modell, vilka osäkerheter finns, vilka mätningar behöver man göra för att man ska anse att modellen är användbar, hur gör man om man inte kan göra mätningar, eller få fram data, men är i stort behov av att förutsäga något, i alla fall en smula?

Häggström beskriver problemet med prediktion på ett intressant sätt, tillämpningen är klimatmodeller (say no more, om vi talar svårigheter, korrelationerna står som spön i backen, liksom de historiska mätvärdenas noggrannhet, och till och med existens):

The further we push atmospheric CO2 levels above those of the last several million years, the less reliably we can predict the future climat.

Det stämmer förstås, om vi går utanför det område som modellen har validerats för, kommer den inte att gälla. Men detta påstående genererar ändå en mängd frågor. Klimatmodellen, antar jag, har koldioxid som en ytterst viktig designparameter. Det är väl effekterna av koldioxiden man oftast bekymrar sig för, vad jag förstår. Och om vi bara kan använda koldioxidhalter inom valideringsområdet, dvs det som redan uppmätts, gör ju modellen inte stor nytta. Då kommer vi inte få några temperaturökningar som beror av ökning av koldioxidhalten i alla fall. (Kanske kan vi få ökningar som beror av nuvarande koldioxidhalt i kombination med någon annan parameter som varierar på något olyckligt sätt, vad vet jag). Även om det är matematiskt rätt, tycks det göra modellen praktiskt meningslös, och det vill vi ju inte.

Man kan ju tänka sig att man genom att vara sträng med valideringsområdet i det här fallet använder modellen för att förbjuda koldioxidnivåer över (eller under för all del, lägre nivåer är inte heller acceptabelt att extrapolera till) de som finns i modellens databas.

När man jobbar med att ta fram modeller för prediktion på detta sätt, brukar man också prata om modellens extrapolationsområde, eftersom en viktig anledning att göra en modell är att kunna förutsäga just vad som händer när man gör något nytt. Modeller behöver vara extrapolerbara till en viss gräns. Var den gränsen går måste man försöka ta reda på. Den går inte nödvändigtvis vid gränsen för ingående data. Ofta gör man mätningar vartefter och lägger till i sin databas och modifierar modellen i den mån det behövs för att hantera vidgad databas.

Något modellen ofta inte kan hantera är stora avvikelser från valideringsdatabasen, men jag har svårt att tro att koldioxidnivån kommer att öka, eller minska, i ett stort steg från ett mättillfälle till ett annat, så att det hamnar väldigt långt från nuvarande datamängd.

Alltså, man får lov att hålla sig nära valideringsdatabasen, och man måste diskutera modellens extrapolerbarhet. Vad ”nära” är, kan man kanske säga är modelleringens soritesparadox.

Sen blir det ännu mer intressant när artikeln kommer in på AI, som ju har med prediktion att göra, att validera superintelligens och bestämma dess arbetsområde måste man se som en intrikat fråga.

Will we be able to remain in control when we are no longer the smartest creatures on the planet?

Hm, tänker jag … det är inte ”de smartaste” som har kontroll som det är nu heller, och vi tycks klara det (låt oss skippa diskussionen om vad ”smart” är, vilka egenskaper som ska anses smarta för just den uppgiften, handen på hjärtat, hur ser du på statsministern och vice statsministern? Men det är kanske inte de som har den verkliga kontrollen, vi kanske ska definiera ”kontroll” också).

Det är inte en ointressant diskussion, men jag måste tänka mera på den.

Min nuvarande hypotes när det gäller frågan om varför vi utvecklar AI och fascineras av det, är att utvecklingen av artificiell intelligens lär oss vad människan egentligen är. Det är därför vi håller på med det, det är inte AI vi försöker förstå, vi försöker förstå Människan. Genom att förbättra AI hela tiden, kommer vi närmare och närmare och tvingas förstå vad det är att vara människa. Det är inte AI som är målet, det är människan, mänskligheten, fast ingen verkar ju förstå det, inte ens de som själva håller på med det.

Ja, och sen är det ju det där med den fria viljan då. Häggström skriver:

While such studies can be very interesting, there is also the risk that building human reactions into the system of differential equations can lead to the deterministic view on which our free will seems to disappear.

Här hänger jag inte riktigt med. Jo, jag hänger med på att bygga in saker i differentialekvationer kommer att ge deterministiska svar. Det blir ett deterministiskt system. Men det låter som om risken är att vi därmed upptäcker att vår fria vilja inte existerar, att vi inte kan leva i tron längre att vi har fri vilja, att det är det som är det obehagliga.

Men så kan det väl inte vara? Menar han att risken är att vi inte kommer att kunna bygga in den fria viljan i systemet? Det kan jag hålla med om blir ett intrikat problem, bygger vi in slump finns ju inte den fria viljan, och bygger vi ett system av den är den inte heller fri. Vilka alternativ finns då att simulera fri vilja? Och att kunna använda den för prediktion … Det här blir ju himla intressant, vi behöver fundera på vad fri vilja egentligen är! Igen.

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *