FoU-paradoxen 2.0

Det finns ett flertal olika formuleringar av det som ibland kallas FoU-paradoxen, men den kanske enklaste är något i stil med:

(i) Av de investeringar vi gör i forskning omsätts en mycket liten andel i (kommersiell) utveckling.

Det finns en variant som hävdar att detta är ett konstant förhållande

(ii) Även om vi ökar investeringarna i forskning får vi samma absoluta kommersiella utveckling.

Sedan finns en tredje variant som är intressant att utforska här:

(iii) Även med ökande investeringar i forskning kommer vi att få allt mindre utväxling i kommersiell utveckling.

Ofta diskuteras FoU-paradoxen i samband med statliga satsningar, men just (iii) har faktiskt diskuterats också i näringslivssammanhang, av bl.a. forskaren Anne Marie Knott. Hon har observerat sjunkande avkastning på FoU-investeringar i företag under ett flertal olika år och har undersökt olika möjliga förklaringar på detta fenomen.

Anne Marie Knotts undersökningar av avkastning på R&D ger en intressant inblick i FoU-paradoxen.

De två huvudhypoteserna kan enkelt uttryckas som följer.

A. Det blir hela tiden svårare att utveckla nya innovationer eftersom de mest uppenbara innovationerna redan gjorts.

B. Företag blir allt sämre på att organisera sina FoU-insatser.

Knott förespråkar B och menar att det bevisas av att maxavkastningen på FoU-satsningar för enskilda företag faktiskt gått upp under den tid som den genomsnittliga avkastningen sjunkit. Det visar, menar hon, att det inte blivit svårare — vissa kan till och med öka avkastningen!

Det är fullt möjligt, men det är intressant att studera den andra förklaringen också – och modifiera den litet – genom att anta att all vår innovation är kombinatorisk på olika sätt. Hal Varian har noterat att kombinatorisk innovation är en av de kanske bästa modeller vi har för att förstå hur innovation sker — vi kombinerar olika idéer och genom att göra det skapar vi ofta något nytt som vi sedan kan testa på marknaden. iPhonen kombinerar en mängd andra idéer till en helt ny innovation, för att ta en närmast trivialt exempel.

En av de kanske mindre uppmärksammade konsekvenserna av denna modell är emellertid att den också betyder att mängden möjliga innovationer växer kombinatoriskt över tid — och många av dessa kommer att vara triviala eller meningslösa. Det internetuppkopplade kylskåpet är en kombination av idéer om konnektivitet och kylskåp, men fungerade inte på marknaden och blev just därför aldrig en innovation nation. Ju fler idékombinationer vi får, desto fler kombinationer av dessa kommer att vara triviala eller ointressanta för marknaden.

(En terminologisk anmärkning: i likhet med Schumpeter skiljer vi här mellan idéer eller uppfinningar och innovationer. Innovationer är idéer som framgångsrikt lanserats på en marknad).

Lyckade innovationer skapar i sin tur en mängd olika nya idéer som kan kombineras på olika sätt till nya möjliga innovationer och så vidare. Resultatet blir ett snabbt expanderade idéuniversum.

Det låter ju fantastiskt, eller hur? Borde inte avkastningen på forskning då explodera i samma takt? Nej, och det är här problemen börjar. Endast en liten fraktion av alla möjliga idékombinationer kommer att klara sig på marknaden, och med ett snabbt expanderade idéuniversum får vi ett klassiskt sökproblem: vi måste försöka hitta de kombinationer som fungerar i detta expanderande universum. Mängden meningslösa idékombinationer växer snabbare än mängden innovationer. I så måtto ligger det något i tesen A ovan — det är lättare att genomsöka ett litet idéuniversum än ett stort, och i det lilla kommer vi att hitta flera innovationer per tidsenhet än i det större.

Vi måste alltså spendera mer resurser på att söka igenom mängden möjliga innovationer. Vilken sorts resurser är det då vi spenderar där? Jo – mänsklig innovationskraft – tid, uppmärksamhet och kreativitet.

Och dessa resurser växer linjärt med varje utbildad och entusiasmerad människa.

Vi landar då i ett klassiskt dilemma: vi måste utforska ett kombinatoriskt växande rum med en linjär resurs.

Vi letar i efter en nål i en ständigt växande höstack. När höstacken var stor som en knytnäve var det ett trivialt problem, när den växer till en mindre planet blir det knepigare.

Översatt till FoU-paradoxen, i något tillyxad form, betyder detta att forskningsinvesteringar är investeringar i att göra höstacken större, samtidigt som några nya nålar lägges till hela tiden (användbara forskningsresultat – snart kommer metaforpolisen och tar mig).

Stanislaw Lem var LÅNGT före sin tid i Summa Technologiae. Och: snyggaste omslaget i universum, eller?

Mängden nålar som läggs till är emellertid sjunkande relativt tillväxten av höstacken, eftersom det saknas starkt selektionstryck på forskningen, som redan Stanislaw Lem observerade (1964):

“We should add that another adverse phenomenon can also be observed: the number of discoveries being made is not proportional to the number of scientists (where the doubling of the number of scientists would lead to twice as much research). The situation is rather as follows: the number of discoveries doubles every thirty years, whereas the number of scientists doubles every ten years. This may seem to contradict what we have said about the exponential growth of scientific information. Yet there is no contradiction here: the number of discoveries is also growing exponentially, but more slowly (its growth is expressed by a smaller exponent) than the number of scientists. All the discoveries taken together are just a fraction of all the information being acquired by science. It is enough to flick through the dusty piles of articles and dissertations produced with a view to obtaining an academic degree and now stored in university archives to see that not a single one of them has led to an at least partially useful result. Reaching the limits of the information capacity of science means significantly lowering the probability of making discoveries. What is more, as the curve of an actual increase in the number of scientists will be getting further away from the hypothetical curve of further exponential growth (which is not possible anymore) in its descent, the coefficient of such probability should be constantly decreasing from now on.”

Stanislaw Lem, Summa Technologiae (1964)

I Lems analys har forskningen – då 1964 – mestadels förvandlats till brus:

“Does this proliferation of papers represent real growth of knowledge? As far back as 1965, Price noted a now familiar observation: “I am tempted to conclude that a very large fraction of the alleged 35,000 journals now current must be reckoned as merely a distant background noise, and as very far from central or strategic in any of the knitted strips from which the cloth of science is woven.”

Stanislaw Lem, ibid.

Ständigt större höstack, relativt sett färre antal nålar, alltså. Om detta stämmer så är (iii) ovan förmodligen den mest rättvisande formuleringen av FoU-paradoxen.

*

Betyder detta då att vi bör ge upp? Om vi har en ändlig, linjärt växande resurs till vårt förfogande för att hantera ett kombinatoriskt exploderande sökproblem så ser det ju onekligen litet deprimerande ut. Men det finns en möjlig väg framåt här — och den handlar om en särskild klass innovationer som möjliggör snabbare lärande: maskininlärning och artificiell intelligens.

En enkel leksaksmodell av kunskapsekonomin består av tre olika komponenter: data, information och kunskap. Data struktureras till information som tolkas till kunskap som i sin tur används på ett sådant sätt att den skapar värde. Problemet i vår tid är att vi kan använda datorkraft för att strukturera data till information, men tolkningen av information som kunskap kräver mänskligt engagemang i modellen — och den mänskliga resursen är ändlig (även om Lem lekte med tanken på att tvångskommendera alla att bli vetenskapsmän eller innovatörer).

Det kan emellertid förändras med nya AI-relaterade tekniker — de kan kanske inte förstå vetenskapen, men de kan göra något som ligger mycket nära tolkningen och därför hjälpa oss att söka igenom det växande idéuniversum som vi har att göra med. Det problem de måste lösa är då det följande: de måste kunna förutsäga om en viss given idékombination kommer att flyga som innovation på marknaden.

Marknaden är nämligen den andra begränsade resursen här — vi kan inte testa ett oändligt antal olika innovationer på marknaden för marknaden har en absorptionstakt — den kan bara absorbera och testa ett visst antal potentiell innovationer över en viss given tidsrymd, så vi måste simulera en marknad, öka tolkningskapaciteten och genomsöka idérymden snabbare.

I dag ser vi de första vetenskapliga upptäckterna som gjorts av olika AI-system, och nästa steg är att vi ser lyckade innovationer lanseras av AI-företag som kan hjälpa oss att hantera FoU-paradoxen — och därmed hantera en ständigt mer komplex och utmanande omvärld.

Kommentera

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.