När datakranarna flödar bygger den vise skovelhjul

Idag läste jag ett inlägg på Twitter av @jocke där han nämnde ”lagen om Information overload / Filter failure.”

Det finns många versioner av denna lag, och här tänkte jag försöka förklara min favorit.

I en artikel från 1974 skriver cybernetikern Conant om lagen PLIR – Partition Law of Information Rates. Lagen är en slags förklaring/beskrivning av hur varje informationsprocessor, varje system som hanterar information, brottas med ett antal förluster. Lagen kan beskrivas ungefär så här:

All information som når systemet måste på något sätt hanteras. Denna hantering leder alltid till ett antal förluster. Dessa förluster beror på koordinering, brus samt filtrering. Kvar, efter att dessa förluster dragits av, är den informationsmängd som faktiskt når mottagaren.

Hur fungerar detta i praktiken?

Låt säga att du läser en dagstidning. Allt, precis varenda bokstav och pixel i tidningen utgör den totala informationsmängden. När du läser lägger du bara märke till viss information. Du bläddrar nästan omedvetet förbi sidor som innehåller för dig ointressant material. Du BLOCKERAR information. När du läser resultattabellerna i Sporten eller aktiekurserna söker du upp den information du är intresserad av. Allt annat är BRUS som måste filtreras bort. Det du sedan läser finns utspritt i tidningen. Hur denna information är organiserad skiljer sig mellan olika tidningar, men gemensamt är att det behövs information för att KOORDINERA innehållet, till exempel sidhänvisningar, innehållsförteckning, sidnumrering. Denna information är viktig med bara för att kunna ta till sig den egentliga informationen. Kvar, efter att du läst tidningen (minus brus, blockerat och koordineringsinformation) är den information som du faktiskt tagit till dig.

På samma sätt hanterar vi till exempel ett användargränssnitt i en programvara eller på en webbsida. En stor del av informationen går åt till att ”bereda vägen” för den verkliga nyttan.

Vad har då detta med något över huvudtaget intressant att göra? Jo, i och med att mängden tillgänglig information ökar exponentiellt ökar också kraven på våra ”informationsprocessorer”. Verktygen för att hantera de grundläggande funktionerna för att filtrera bort brus, blockera och koordinera dataflöden måste bli minst lika moderna som informationskanalerna. Minst. Och dessutom måste vi alla kunna hantera de nya ”datakranarna” så att den information som når oss som uppfyller dessa krav:

  • Informationen skall vara relevant
  • Informationen skall vara i ett format som gör den enkel att absorbera, arkivera och vidarebefordra
  • Informationen skall inte vara redundant, dvs man vill ha information EN gång.
  • Informationen skall vara klassificeringsbar för att möjliggöra ytterligare sortering/koordinering/filtrering. Detta ställer alltså krav på metadata, alltså information om informationen.

Några exempel på verktyg/tekniker som fungerar enligt denna princip:

  • RSS-läsare (skrev om detta här)
  • Twitterklienter som till exempel märker upp hashtaggar och användare så att de blir klickbara
  • Wikipedia

Och några som inte hänger med:

  • Text-TV
  • Sökmotorer
  • Pappersmedia

Summan av den berömda kryddan är alltså att en (utomordentlig) forskare 1974 förutsåg metoder för att hantera det som @jocke kallar ”Information overload/Filter failure”.

Conant och hans kollegor hade för övrigt många intressanta idéer. Speciellt inom cybernetik. Kanske det blir dags för en snabblektion om detta också, så småningom…

Artikeln från 1974:
Conant, R. C. (1974) INFORMATION FLOWS IN HIERARCHICAL SYSTEMS In International Journal of General Systems, 1563-5104, Volume 1, Issue 1, 1974, Pages 9 – 18

UPPDATERING 1/3: Jag angav fel referens i första versionen av detta inlägg. Rätt ska vara rätt och korrekt artikel är nu inlagd.

4 Comments