Minns nätet allt?
Minns nätet allt?
Pelle Snickars
Pelle Snickars redogör för en rad funderingar som befinner sig i omlopp kring den digitala dokumentationens förhållande till minne och glömska, men diskuterar också varför det i arkivsammanhang skulle vara önskvärt att bevara ännu mer av det som bara kan hända på nätet och ingen annanstans.
Att nätet svämmar över av data är en banal truism. Beräkningar gör gällande att digital information ökar tiofalt vart femte år och 2011 kommer det därför att produceras ungefär 2 000 exabytes data, det vill säga, 260 bytes. De skall adderas till de 1 000 000 000 000 000 000 000 bytes (1,2 zettabytes) som skapades året före. Efter det börjar sifferprefixen ta slut. Än så länge finns bara ett enda etablerat prefix till, yottabyte, men det är som The Economistpåpekade för en tid sedan, »too big to imagine».
Den här datainflationen kan naturligtvis te sig avskräckande, samtidigt är webben förstås också en fantastisk informationsresurs. Man behöver inte vara McLuhan för att ana att nätet förmodligen är den mest kraftfulla teknologi som någonsin kommit i allmänt bruk. Mängden information är den allra viktigaste anledningen, och att Google krönts till nätets kung beror på att företaget låter oss hitta i all denna redundans. Vad som emellertid sällan lyfts fram är att överflödet av information inte primärt skapats av oss människor. När det gäller dataproduktion har maskinerna redan tagit över. Automatgenererad spam är det mest uppenbara exemplet. Information som produceras av maskiner – och används av andra maskiner – växer snabbare än något annat på såväl webben som internet.
En lika övergripande som spännande tekno-epistemologisk konsekvens av denna förändring är att begrepp som »data» och »information» – ja, rentav »kunskap» – blir allt svårare att hålla isär. Så kallad data mining är exempelvis ett slags informationsutvinning där maskinerna genom sökandet efter mönster, regelbundenheter eller avvikelser i stora datamängder bearbetar data och förädlar den till information. Algoritmerna ger ju aldrig upp. Har maskinerna bara tillräckligt med rådata kan de avslöja ständigt nya insikter; kunskap som tidigare skulle vara dold uppenbaras – och de tröttnar aldrig.
Information är också en mer eller mindre outtömlig resurs, som dessutom sparas i ett »moln» med närmast obegränsad lagringsförmåga. Och detta i en tid då fri tillgång till data betraktas som grundläggande för såväl demokrati som välstånd. På ett övergripande plan är datainflationen på nätet till stor del resultatet av en västerländsk diskurs kring maximal transparens. De senaste åren har den idén varmt omhuldats och lett till initiativ som open government, open source, open access till vetenskaplig data och information, samt inte minst hundratusentals digitaliseringsprojekt på museer, arkiv och bibliotek, alla med syfte att tillgängliggöra information till medborgarna.
Det märkliga är att på nätet produceras, samlas och distribueras inte bara all denna data. Den bevaras också där (eller rättare sagt i gigantiska serverhallar). Som ett slags kolossal minnesmaskin förefaller internet komma ihåg allt, inte minst var informationen finns. Det är visserligen Google som (för tillfället) gör det mesta av det arbetet, men internets infrastruktur och de program och applikationer som körs där har i regel en läskig minnespotential. Som generativ minnesteknologi har nätet få, om ens någon medtävlare i teknikhistorien. Möjligen är boken fortfarande herre på täppan, och ett talande exempel är James Bridles tolvbandsverk, The Iraq War. Det är en bok som består av en exakt transkription av alla artikelversioner av rubriken »The Iraq War» på Wikipedia; 12 000 ändringar på sammanlagt 7 000 sidor. Genom Wikipedias versionshantering sparas ju alla ändringar. Vad Bridles projekt illustrerar i bokform är alltså webbens väldiga dokumentationsförmåga. Nätet som arkiv ger just en antydan om dess roll som instrument för att förstå vår tid. Där må resultat vara viktiga, men vägen dit ofta långt mer intressant. Artikelposten »The Iraq War» vittnar såtillvida om en kulturell argumentationsprocess, en pågående förhandling och kodifiering av hur Irakkriget beskrivits – och slutligen begripits.
Betraktar man en av nätets grundläggande funktioner, nämligen dess matematiska besatthet vid att lagra allt som utspelats i den digitala domänen, så inställer sig åtminstone två funderingar. För det första finns det en rad problem besläktade med att konceptualisera nätet som ett slags minnesmaskin (mer om det längre fram i artikeln). Och för det andra kan man – som Nicholas Carr nyligen gjort i boken The Shallows – fråga sig om vi människor möjligen håller på att förändras av detta enorma maskinära informationsutbud. Carr har hävdat att webben gör att vi minns allt sämre eftersom vi inte längre behöver komma ihåg något. Det är bara att googla. Överflöd och hastighet, distraktion och sviktande minnesförmåga är, enligt honom, fiender som varje nätanvändare har att kämpa mot. Hur inverkar egentligen ett oändligt utbud av information på oss? Är vi rentav på väg att mista vår förmåga till eftertänksamhet i en allt intensivare jakt på information?
Som en inte oviktig del av transparens-tanken ovan figurerar just föreställning om internet som ett informationssystem med potential att svälja, spara och bearbeta allt, samt en naiv tro att detta inte skulle gripa tillbaka på oss användare och påverka hur vi interagerar med nätet. Redan i boken Dark Fiber från 2003 varnade Geert Lovink för denna maskinära tilltro. Vad för slags efterfrågan produceras egentligen genom ett oändligt utbud av data, frågade han sig? Behöver vi all den här informationen, eller borde vi ägna oss åt att radera mer? I en digital situation när det blivit möjligt att spara allt inträder ju ett antal lagrings-paradoxer. Eller som det heter i den gamla Borgesnovellen, »Funes med det goda minnet» – kommer man ihåg allt, minns man ingenting. Perfekt matematisk lagring har ofta en tendens att resultera i en oförmåga till generalisering och abstraktion. Redan Alan Turing uppmärksammade att det rigorösa och exakta i datasammanhang ofta blir en belastning.
Man bör också erinra sig att glömska sedan urminnes tider är en av människans främsta egenskaper. Att komma ihåg allt skulle vara en mardröm. I samhället i stort fungerar faktiskt vårt minne dåligt som sammanhållande kitt. Tidigare misstag i livet förföljer inte folk för evigt; vi tillåter i regel en andra chans, och så vidare. Men nätet glömmer inte. I bokenDelete. The Virtue of Forgetting in the Digital Age menar Viktor Mayer-Schönberger att västvärlden i och med inträdet i den digitala tidsåldern håller på att genomgå ett monumentalt mnemoniskt skifte – »from a default of forgetting to one of remembering». Med teknikens hjälp har hågkomst blivit norm, och glömska undantag. Mayer-Schönberger hävdar att det är fyra teknologiska drivkrafter som åstadkommit denna förändring: digitalisering, allt billigare lagringsformat, enkel åtkomst och webbens globala genomslag. Även The New York Times var i en artikel i somras inne på samma spår. Under rubriken, »The Web Means the End of Forgetting», påtalades bland annat att webbens dokumentationsförmåga håller på att få alla möjliga behagliga och obehagliga effekter. Arbetsgivare googlar idag exempelvis på folk som söker arbete. När de flesta rekryteringsfirmor gör efterforskningar online av jobbsökande, kan tidigare små misstag i arbets- och privatlivet bli en ständigt återkommande belastning. Mayer-Schönberger menar i sin bok att när den digitala tekniken eliminerat glömskan, så kommer det förflutna ständigt jaga oss och göra sig påmint. Att förlåta någon blir en allt svårare uppgift. Digital hågkomst underminerar med andra ord den centrala roll som glömska spelat i vårt samhälle. Lösningen på detta dilemma är helt följdriktigt själva titeln på Mayer-Schönbergers bok – »delete», det vill säga radera. Genom att införa ett slags »bäst-före-datum» på viss information på webben skulle användare själva kunna undvika den här typen av problem, menar han. Förslaget är långt ifrån orealistiskt; raderingstekniken är tämligen enkel och finns redan inbyggd i olika slags kopieringsskydd, »Digital Rights Management», vilka försökt reglera spridningen av digitalt material.
Mayer-Schönbergers förslag må låta en smula bisarrt, rentav utopistiskt, och möjligen är hans ifrågasättande och kritik av webben som minnesmaskin mer relevant än hans svar. Det paradoxala är nämligen att om vissa hävdar att nätet kommer ihåg allt, menar andra att vi sparar för lite digital information. En ytterligare invändning som man kan resa mot nätet som lagringsplattform handlar just om den praktik som utvecklats kring att spara ner det. Om nu internet är detta formidabla historiografiska redskap med förmågan att notera, distribuera och bevara varje enskild förändring, varför ägnar sig då somliga åt att lagra det, det vill säga arkivera ett slags arkiv? Kungl. biblioteket där jag jobbar började till exempel redan 1996 med att samla in den svenska delen av webben genom projektet Kulturarw3 (där w3 står för www). Vid nästan exakt samma tidpunkt startade Internet Archive sin webbinsamlingsverksamhet, som alltsedan dess är tillgänglig online genom den så kallade Wayback Machine. Poängen med dessa projekt är att även om webben inte glömmer, så håller den i längden inte reda på alla versioner, uppdateringar, modifieringar och elimineringar, något som Mayer-Schönberger inte ägnat speciellt mycket uppmärksamhet i sin bok. Webbens minne är därför på många sätt lika selektivt som människans, även om det i regel är vi själva som ser till att somlig information försvinner. På det stora hela är det ofta tillfälligheter som styr vad som lämnas därhän. Pinsamma fotografier uppladdade på någon social nätverkssajt kan till exempel ligga kvar länge, i synnerhet om de spritts vidare, medan institutionell information av mycket omfattande art plötsligt släcks ned. Jag var själv med om att bygga upp Statens ljud- och bildarkivs tämligen omfattande webb, och av den finns knappt ett spår kvar på nätet eftersom verksamheten flyttats in i KB.
Aktiv webbinsamling är såtillvida ett komplement till nätets egen arkivariska funktionalitet. Den förra reducerar dock nätmediet till en blek kopia av sig själv. Det beror på att det fortfarande är tekniskt komplicerat att bevara nätets djup, dynamik och tredimensionalitet. Lösenordsskyddade sajter, javaskript, dynamiskt genererade sidor och strömmad media är mer eller mindre omöjliga att spara på ett arkivmässigt sätt. Ändå är denna insamlingsverksamhet bättre än ingenting alls. Idag finns faktiskt ofattbara 150 miljarder webbsidor insamlade på Internet Archive – nedladdade, och sedan uppladdade för fri tillgång genom Wayback Machine. Insamlingen sköts av en »webb crawler», en programvara i form av ett slags webbrobot som sparar utvalda sajter. Hos Internet Archive har det framför allt handlat om större sajter, främst i usa men också i övriga världen. Förstasidan av aftonbladet.se från den 23/10, 1996 finns till exempel sparad, med ett länkdjup på ett eller två klick. »Sök i vårt arkiv – på internet» är den något förvånande titeln på en tidningstext just det datumet: »En halv miljon artiklar om allt från Christer Sjögrens kärleksliv till analyser av det politiska spelet i Moskva ligger där ute och väntar på dig.»
Wayback Machine är förstås ett lysande hjälpmedel för alla möjliga verksam-heter, inte minst för nya digitala metoder. Använder man sajten blir man snabbt varse webbens blixtsnabba förändring. Visserligen har den här sortens insamling ibland kritiserats, men i usa är den helt laglig. Internet Archive är en nonprofit-organisation och allt material tillgängliggörs fritt utan annonser. För europeiska sajter kan upphovsrätten dock ställa till problem, men vill man inte ha sin sajt bevarad är det bara att lägga till en så kallad »robots.txt»-fil så slipper man att bli indexerad. Kulturarw3-projketet på kb har haft en liknande uppbyggnad – om än i mindre teknologisk skala. 1996 var tanken framför allt att testa metoder och arbetssätt för digital insamling av elektroniska dokument, detta i väntan på en hägrande e-plikt. Frågorna då var lika många som svaren idag fortfarande är få: Vilka format skulle man spara ned? Vilka metadata var nödvändiga? Hur skulle de så kallade e-resurserna lagras och tillgängliggöras? kb beslöt sig för att samla in det mesta och inte göra några direkta urval. De första webbsvepen genererade drygt sju miljoner filer och 160 gigabyte data på toppdomänen .se – de senaste 375 miljoner filer fördelat på 1,4 terabyte.
Man kan ha flera invändningar mot Kulturarw3. Resultaten av svepen gör till exempel inte webben som medieform rättvisa; reduktion, gallring och inskränkningar är snarare legio. Dessutom är tillgängligheten till webbmaterialet minst sagt bristfällig, ingenting kan visas online (utan bara på kb) på grund av upphovsrättsliga hinder och personuppgiftslagen. Projektet har också länge dragits med tekniska problem, och under 2010 tvingades kb tråkigt nog att temporärt släcka ned på grund av medelbrist. Men vad Kulturarw3 de facto åstadkommit är bevarandet av näthistoriska exempel, ett slags ögonblicksbilder av hur den svenska webben såg ut vid några givna tidpunkter. Initiativet var en arkivarisk pionjärgärning, framför allt eftersom det vid mitten av nittiotalet knappast var uppenbart att webben själv skulle utvecklas i en arkivarisk riktning med ett alltmer svällande datamoln. Faktum är att ingen annanstans i världen finns ett så systematiskt insamlat webbmaterial från en så tidig period. kb har också internationellt rönt mycket uppmärksamhet för denna insats i biblioteksvärlden. I Kulturarw3 finns bland annat flera exempel på den svenska bloggosfärens utveckling, det vill säga lagrandet av små hemsidor som Internet Archive aldrig brytt sig om – och som alltså inte finns sparade någon annanstans.
Intressant nog hade Kulturarw3 inte något som helst stöd i lagen, projektet tillkom i väntan på en e-pliktlag för den digitala domänen. Den lyser pinsamt nog fortfarande med sin frånvaro, och även om det nya lagförslaget om leveransplikt för elektroniska dokument – som möjligen klubbas under 2011 – är ett steg i rätt riktning riskerar det att snabbt bli föråldrat. Av tekniska och juridiska skäl är den kommande e-pliktlagstiftningen inriktad på avgränsad och publicerad nätinformation. Men tänk om det egentligen är dialogen och kommentarerna, debatten och det flyktigt nätkulturella samtalet som är det allra mest historiskt relevanta att bevara?
Kulturarw3 sätter därför fingret på en arkivarisk paradox, nämligen hur man egentligen bevarar en medie- och kommunikationsform (nätet) som på samma gång är ett arkiv över sig självt. Å ena sidan kan man fråga sig om detta verkligen är nödvändigt; borde inte minnesinstitutioner (som exempelvis kb) lägga sina begränsade resurser på äldre material? Å andra sidan kan man vända på frågan, och givet de omfattande digitaliseringsinsatser som utförs av olika minnesinstitutioner världen över, undra om inte för mycket pengar investeras i gammal kultur. Ska man tro Geert Lovink så använder Europa alldeles för mycket av sina resurser till digitalisering av sitt kulturarv. På sin blogg har han bland annat frågat sig »hur Europa kan befrias från sin oro över ’arkivet’», och istället mobilisera sin kreativa energi »mot en ’framtida kultur’ som både är kritisk och innovativ.» kb har nu fryst sin webbinsamling, men parallellt fortsätter migreringen av gamla tv-program, och i så motto har Lovink rätt – alltför mycket digitalt fokus ligger på det förflutna.
Men det verkliga problemet med att samla in nätet är att det från ett lagstiftningsperspektiv inte alls går att jämföra denna medieform med tidigare publikationsformer i mediehistorien. Eftersom alla kan använda webben utan publicistiska spärrar, vilket ju varit själva grundbulten för hela webb 2.0-fenomenet, så går det helt enkelt inte längre att som i nationalbibliotekets förordning »ta emot, förvara, beskriva och tillhandahålla den svenska tryckproduktionen i dess helhet [samt att] ta emot, förvara och ... tillhandahålla plikt-exemplar av filmer, fonogram, videogram ... och upptagningar av ljudradio- och televisionsprogram.» Enskilda tryck får man leta efter online. I den digitala domänen finns bara kopior, och de är både oändligt många och har inte längre några klart definierade gränser. Kopiering, dynamik, hyperlänkning och flöden är internets grundtermer – inte exemplar. Som bekant liknar ju nätet ett slags binärt ekosystem av miljarder upplänkade kopior, och hur sparar man det?
Det här är förstås ingen nyhet utan tämligen uppenbart för var och en som sätter sig in i frågan. Likväl har de sakkunniga som utarbetat lagförslaget om den kommande e-plikten framhärdat i »att elektroniska dokument som publiceras på nätverk som Internet ska lämnas in till Kungl. biblioteket för att bevaras för framtiden.» Lagförslaget handlar alltså ånyo om avgränsade dokument och exemplar och gäller dessutom i princip bara etablerade publicister på nätet som tidningsföretag, filmproducenter eller bokförlag. Privata sajter, bloggar eller sociala nätverk – det vill säga just sådana kommunikationsformer som skiljer de nya medierna från de gamla – omfattas inte av förslaget. Från utredningshåll har man också helt passat på frågan gällande tillgänglighet och förslaget handlar därför i det närmaste om ett slags slutförvaring.
Den kommande e-plikten utgör såtillvida en direkt kontinuitet av nuvarande lagstiftning. Etablerade företag som tidigare producerat analoga alster och som nu alltmer övergått till digital distribution blir leveransskyldiga – resten av webben lämnas därhän. Det är naturligtvis en märklig juridisk utveckling, men samtidigt både tekniskt och politiskt, och inte minst finansiellt förståelig. I själva verket handlar den kommande e-plikten inte alls om att bevara webben som medium, utan snarare om att selektivt bevara äldre medieformat omstöpta i ettor och nollor. I utredningen kan man bland annat läsa att de sakkunniga »kommit fram till att allt elektroniskt material som alla publicerar via nätverk inte kan omfattas av leveransplikt.» E-plikten bör istället inrikta sig på »publicerade ’färdiga’ elektroniska dokument och inte i sig sådana dynamiska företeelser som webbsidor och databaser eller programvara.» Det är lika begripligt som det är synd. Och när utredningen hävdar att förslaget innebar att »vårt digitala kulturarv bevaras för framtida forskning» – då är det rentav beklämmande.