Källkritik

Traditionellt har källkritik handlat om vem det är som säger något. Vem är hen, vems ärenden går hen, vad är egentligen syftet med informationen som sprids?

Det källkritiska förhållningssättet måste du absolut ha med dig i din omvärldsbevakning också. Att kontrollera att en person är den som den utger sig för att vara kan vara svårt. De flesta tjänster på nätet gör ingen som helst identitetskontroll innan ett konto skapas. Som informationskonsument får du istället göra bedömningar: är det som påstås rimligt? Hur länge har bloggen/twitterkontot funnits? Vad skriver det om? Vilka andra twitterkonton interagerar det med?

Men på nätet kan ytterligare en typ av källkritik behövas, en källkritik mot alla de algoritmer och filter som väljer ut vad du får se och väljer bort sånt som inte visas för dig.

Facebook är ett bra exempel. I augusti 2013 publicerade företaget ett blogginlägg om hur tekniken bakom Facebook-flödet fungerade då. I inlägget kan man läsa att det i snitt väntar runt 1 500 nya händelser i form av uppdateringar och bilder från vänner, från sidor och så vidare varje gång en användare loggar in på Facebook. Företagets algoritmer försöker hitta de mest relevanta uppdateringarna och visa dem för dig. I genomsnitt väljs 300 av de 1 500 ut varje dag. När du väljer att ge något en tumme upp skickar du samtidigt en signal till Facebooks algoritmer om att det är något du vill se. Väljer du att dölja något är också det en signal. Och så vidare.

Många andra tjänster på nätet fungerar på samma sätt: Google tar hänsyn till en mängd faktorer när resultatet på en sökfråga sammanställs och det är ovanligt att två personer som söker på samma ord får olika förslag i träfflistan. Zite är ett annat exempel. Appen hämtar in artiklar och blogginlägg från ett stort antal källor på nätet och presenterar ett urval i ett magasinsliknande format. Och urvalet baseras på den enskilda användaren och hur hen har använt appen.

Många, bland andra den amerikanska författaren och debattören Eli Pariser, har varnat för något som kallas “filterbubblan”. De ser ett potentiellt demokratiproblem: Om alla får personanpassad information och personanpassningen ständigt förfinas och förbättras kommer vi allt mer sällan träffa på information som går tvärs emot våra befintliga åsikter.

Sökmotorn Duck Duck Go har i annonskampanjer i USA profilerat sig som en sökmotor där man som användare inte får ett personanpassat resultat. Istället får alla som söker på en viss term samma sökresultat.

Det går dock att fråga sig om det verkligen är ett sätt att lösa problematiken med filterbubblan. Om Duck Duck Go blev den dominerande sökmotorn, skulle vi då alla inte bara vara inneslutna i en och samma filterbubbla? Personanpassningen innebär trots allt att kollegor på en arbetsplats har läst olika saker om samma aktuella ämne och därmed kan ha med sig olika infallsvinklar till diskussionen kring lunchbordet.

Men oavsett om man hör till dem som ser filterbubblan som ett stort problem eller dem som menar att riskerna är överdrivna bör man som nätanvändare vara medveten om att personanpassning sker och att det därför finns skäl att aktivt söka olika källor och att använda olika tjänster när man gör research eller bevakar ett visst ämne. Särskilt om ämnet är kontroversiellt och det finns anledning att vara orolig för att tjänsterna som använda i första hand väljer ut en viss typ av information.