Osäkerheten som nyckel till scenarioplanering

En central punkt i all scenarioplanering är frågan om osäkerhet. I den klassiska scenaroplaneringsmodellen gör man – förenklat – såhär: man identifierar vilka drivkrafter som påverkar den fråga eller det fenomen som man vill studera (ofta efter PESTLE modellen, politiska, ekonomiska, sociala, tekniska, legala och miljömässiga faktorer) och sedan frågar man vilka av dessa drivkrafter som är m,est osäkra och har högst påverkan på fokusfrågan.

Detta kan låta som ett enkelt steg, men det är det inte. De flesta människor har nämligen en ganska säker uppfattning om framtiden, och det kräver betydande tid och teknik för att få deltagarna i en workshop att identifiera drivkrafter som kan formuleras om i ett ”antingen…eller…” schema där de de två leden har i alla fall 60/40 sannolikhet att inträffa. Särskilt om man samtidigt vill att dessa drivkrafter skall vara sådana som är absolut avgörande för hur fokusområdet utvecklas.

I veckan nu har jag spenderat tid i Kina, och i samband med detta läst en hel del studier, artiklar och pratat med åtskilliga experter om vad de anser är de viktigaste drivkrafterna som påverkar Kinas framtid. Det saknas inte åsikter i frågan, men utan undantag har samtliga blivit konfunderade när jag då frågat – vilka är de viktigaste faktorer som du är minst säker på hur de kommer att utvecklas, de där osäkerheten är som störst?

Det är intressant — och hänger nog samman med att vi i språkspelet om framtiden normalt inte integrerar den sortens tankar. Vi tror att när någon frågar oss om framtiden så ska vi vara säkra, ha självförtroende och satsa på en åsikt — inte identifiera de mest svårförutsägbara variablerna.

Nå, efter litet diskussion och dialog så kom vi dit i alla fall, och det blev en bra diskussion — jag har nu mina kvalificerade osäkerheter och kan bygga mina scenarier, men det var en god påminnelse om hur viktigt det är att försöka hitta den 50/50 vad om framtiden som finns i våra egna antaganden om hur världen kommer att utveckla sig. De är nämligen de som är mest intressanta att studera för att förbereda sig för olika typer av framtider.

Gossiping about AI (Man / Machine XII)

There are plenty of studies of gossip as a social phenomenon, and there are computer science models of gossiping that allow for information distribution in system. There are even gossip learning systems that compete with or constitute alternatives to federated learning models. But here is a question I have not found any serious discussion about in the literature: what would it mean to gossip about an artificial intelligence? I tend to think that this would constitute a really interesting social turing test – and we could state it thus: ¨

(i) A system is only socially intelligent and relevant if it is the object of gossip or can be come the object of gossip.

This would mean that it is first when we confide in each-other what we heard about an AI that it has some kind of social existence. Intelligence, by the way, is probably the wrong word here — but the point remains. To be gossiped about is to be social in a very human way. We do not gossip about dogs or birds, we do not gossip about buildings or machines. We gossip about other subjects.

*

This connects with a wider discussion about the social nature of intelligence, and how the model of intelligence we have is somewhat simplified. We tend to talk about intelligence as individual, but the reality is that it is a network concept, your intelligence is a function of the networks you exist in and are a part of. Not only, but partly.

I feel strongly, for example, that I am more intelligent in some sense because I have the privilege to work with outstanding individuals, but I also know that they in turn get to shine even more because they work with other outstanding individuals. The group augments the individual’s talents and shapes them.

That would be another factor to take into account if we are designing social intelligence Turing tests: does the subject of the test become more or less intelligent with others? Kasparov has suggested that man and a machine always beats machine – but that is largely because of the ability of man to adapt and integrate into a system. Would machine and machine beat machine? Probably not — in fact, you could even imagine the overall result there as negative! This quality – additive intelligence – is interesting.

*

I have written elsewhere that we get stuck in language when we speak of artificial intelligence. That it would be better to speak of sophisticity or something like that – a new word that describes certain cognitive skills bundled in different ways. I do believe that would allow us a debate that is not so hopelessly antropocentric. We are collectively sometimes egomaniacs, occupied only with the question of how something relates to us.

Thinking about what bundles of cognitive skills I would include, then, I think the social additive quality is important, and maybe it is a cognitive skill to be able to be gossiped about, in some sense. Not a skill, perhaps, but a quality. There is something there, I think. More to explore, later.