Länkkarteller på #svpol

Okej, rubriken till trots handlar detta inte riktigt om länkkarteller. Det låter bara tufft att säga kartell.

Vad jag däremot har gjort är att återskapa Kate Starbirds metod från Information Wars: A Window into the Alternative Media Ecosystem som visar sajter som brukar länkas tillsammans på sociala medier när konspirationsteorier förs på tal.

Vilka länkar förekommer mest tillsammans? Det är frågan som bilden nedan svarar på. Men i stället för konspirationsteorier har jag valt att titta på #svpol generellt sedan november 2015. Och där dominerar traditionella massmedier. Det är huvudsakligen kvintetten Expressen, Aftonbladet, SVT, DN och SvD som förekommer mest tillsammans på #svpol, vilket tjockleken på linjerna och de röda bubblorna indikerar.

Jag använde algoritmen DrL för att skapa nätverket, som är force-directed, vilket i korthet innebär att domäner längre ifrån varandra har mindre med varandra att göra (färre länkar tillsammans). Därmed hamnar massmedierna i gröten i mitten eftersom de får flest länkar.

Läs mer

Se hela analysen av #svpol eller ladda ned källkoden i R om du vill göra samma sak själv.

Läser journalister källorna de hänvisar till?

Viskleken har nog de flesta hört talas om. En person säger något till en andra person, som i sin tur säger det till en tredje, och så vidare. Poängen är att informationen bitvis förändras på vägen.

I journalistiken (och i forskningen också, faktiskt) förekommer också visklekar. Man kollar helt enkelt inte upp källorna, utan accepterar slutsatsen någon annan har skrivit (och kanske inte ens förstått), för att sedan föra vidare slutsatsen ifråga. Här följer ett exempel.

Sveriges Radio Medieormen skriver så här:

New York Times har uppmärksammat fenomenet i en artikel om hur Googles algoritmer, oavsiktligt får man hoppas, har börjat diskriminera. Som exempel anger man en studie som visar att Googles platsannonser för högbetalda jobb oftare riktas mot män än mot kvinnor.

Följer man länken till New York Times kan man läsa detta:

Google’s online advertising system, for instance, showed an ad for high-income jobs to men much more often than it showed the ad to women, a new study by Carnegie Mellon University researchers found.

Klickar man sedan vidare till studien kan man läsa detta:

We cannot determine who caused these findings due to our limited visibility into the ad ecosystem, which includes Google, advertisers, websites, and users.

Så efter två klick kan man konstatera att originalpåståendet (”Googles algoritmer har börjat diskriminera”) inte hade mycket substans (”We cannot determine who caused these findings”). Även forskare har misstagit sig på samma punkt.

Det är väldigt positivt att massmedierna länkar till sina källor. Det gör deras arbete mer transparent och felaktigheter kan lättare upptäckas. För i ärlighetens namn är dessa fel inte förbehållet journalister. Forskare citerar också på samma sätt emellanåt, det vill säga till andrahandskällor utan att kontrollera originalkällorna. Den omvända praktiken förekommer också, att originalkällor citeras medan fullständiga vederläggningar av dessa källor inte alls citeras.

Fördelen inom akademin är dock att referenssystem både är standardiserade och nödvändiga. Därmed är också missuppfattningar i grunden demonstrerbara. Det finns inget värre än att läsa ”en studie har visat att”, vilket omedelbart skapar frågor. Vilken studie? När? Vem? Var? Hur?

I dag fick jag frågan varför så många tror att filterbubblor existerar trots att forskningen visar att de sällan gör det. Kanske kan viskleken vara en av förklaringarna. Om vi börjar med slutsatsen kan vi enkelt viska oss fram till vad som helst.

Fler exempel

”Det är algoritmerna” – en förklaring som betyder ”jag har ingen förklaring”

Algoritmer: Så påverkar de din vardag

Stiftelsen för internetinfrastruktur har släppt en ny rapport vid namn Algoritmer: Så påverkar de din vardag, skriven av Jutta Haider och Olof Sundin.

Här tänkte jag redogöra för min kritik mot dels rapporten och dels ordet ”algoritmer” i största allmänhet. För det som många menar när de säger ”algoritmer” verkar egentligen vara ”mjukvara”.

Algoritm: ett nytt ord för att ersätta mjukvara

Vad är det som gör att du ser det du ser på nätet? Det är algoritmerna. Hur kan du läsa den här texten just nu? Tack vare algoritmerna. Och vad är det som gör att du kan posta en kommentar i kommentarsfältet? Du gissade rätt, det är också algoritmerna. ”Algoritm” tycks vara de senaste årens buzzword i svensk press (se diagrammet nedan) som kan förklara vad som händer i det digitala samhället.

Men när ett begrepp tenderar att förklara allt blir vi inte mycket klokare av att använda det. Aristoteles påpekade redan i Retoriken (s. 152 i svenska upplagan) att en sak vi alla människor vet är vi i regel väldigt okunniga om när det omformuleras med andra ord. Detsamma kan sägas om algoritmer när det verkar få ersätta ”mjukvara” i allt högre utsträckning. Algoritmer har dokumenterats 1 600 år före Kristus, så fenomenet kan åtminstone inte påstås vara speciellt nytt (om vi nu inte förväntas jämföra med big bang), även om det har ökat i popularitet på senare år.

Google har exempelvis över 40 000 egna patent, de flesta mjukvarupatent, och det bidrar därför sällan till förståelsen när någon väljer att prata om ”Googles algoritm” – i singular dessutom. Algoritm likställs ofta med ett recept, och vi säger ju sällan att vi har lagat ”receptet” till lunch om vi inte först specificerar exakt vilket av alla tusentals recept vi talar om.

Mitt förslag är att inte göra sig själv okunnig genom att byta ut ord vi redan kan och använder till förmån för ord som är både malplacerade och på fel abstraktionsnivå. Det går utmärkt att säga ”Googles sökmotor” i stället för ”Googles algoritm”. Forskare kan fortsätta säga att de använt OLS regression för att analysera datan i stället för att säga att de använt en algoritm. Det senare kan syfta på precis vad som helst, medan det förra är någorlunda väl avgränsat. (Googles sökmotor har för övrigt mängder av algoritmer, de flesta banala, som hur länkarna till andra sidor i sökresultatet ska visas.)

Vill man prata om innehåll som skräddarsys efter individens tidigare beteenden (sökningar eller klick på länkar) är ett lämpligare ord personalisering. Då kan vi skilja mellan vad en individ själv väljer att utesluta från sin informationsmiljö (aktiv personalisering) och vad företag som Google och Facebook exempelvis bestämmer vad du ska se utifrån dina tidigare beteenden (passiv personalisering). Redan här har vi kommit till kärnfrågan (åtminstone en av dem) i stället för att trassla in oss i tekniska detaljer.

Nu vänder jag i stället blicken mot rapporten ifråga.

Kulturella värderingar kodifierade i algoritmer

Rapportförfattarna skriver (s. 9-10) att samhälleliga och kulturella normer, fördomar och liknande är inskrivna i algoritmer. Som stöd för detta argument visar de några tydliga exempel på hur detta kan ske i praktiken:

Algoritmer är kulturellt kodade

Algoritmer är en djupt integrerad del av vårt samhälle. Algoritmer ger också uttryck för dominerande föreställningar och värderingar i vår kultur. Det går att uttrycka i termer av att algoritmer kodifierar dessa föreställningar och värderingar. Vi ser det till exempel i hur en kulturs värderingar om offentlig amning och den kvinnliga kroppen leder till att Facebook censurerar alltför ”explicita” bilder på amning. Det får i sin tur genomslag världen över genom de värderingar som finns inbyggda i Facebooks algoritm, vilken automatiskt letar upp och döljer kvinnlig nakenhet. Det här leder till att även schematiskt ritade bilder på bröst vid till exempel en kampanj för bröstcancer kan bli osynliggjorda.

Det som kan framstå som självklart i den kultur där algoritmen är skapad, kan framstå som underligt, kanske till och med stötande, i en annan kultur. Andra exempel visar på rasistiska värderingar som syns i Googles och Flickrs algoritmer för automatisk taggning av bilder. Google har exempelvis behövt be om ursäkt för att en algoritm för bildbeskrivning taggade två svarta personer med ”gorillas”.

Detta är allvarligt om så vore fallet. Tittar man på referensen till tidningsartikeln säger Google att de också har råkat klassificera människor som hundar. Med rapportförfattarnas fokus på hur kulturella normer påverkar algoritmen borde slutsatsen också vara (a fortiori) att Googles värderingar är att människor är hundar och att dessa värderingar är kodifierade i algoritmen.

Dessbättre är det felaktigt, och det beror på hur klassificering av bilder går till, vilket bygger på perceptuell inlärning och är inte inskrivet i algoritmen över huvud taget.

Det handlar om att man använder en bildklassificerare och låter denna ”lära” från en mängd olika exempelbilder. Ut kommer då en modell från algoritmen som har till uppgift att klassificera nya bilder, som modellen tidigare inte har sett. Därefter släpper man lös klassificeraren (modellen) i det vilda och låter den klassificera bilder på egen hand utifrån mönster den själv hittar. Detta senare steg i mönsterigenkänningen har alltså inte programmerats av någon människa över huvud taget. Annorlunda uttryckt skapar dessa algoritmer saker utöver vad de har programmerats att göra, alltså modellen.

Däremot kan dessa producera andra typer av fel, till exempel när man stoppar in ett skevt urval av bilder i modellen. Detta beskrivs betydligt mer nyanserat i artikeln Artificial Intelligence’s White Guy Problem där forskaren Kate Crawford från Microsoft beskriver problematiken:

This is fundamentally a data problem. Algorithms learn by being fed certain images, often chosen by engineers, and the system builds a model of the world based on those images. If a system is trained on photos of people who are overwhelmingly white, it will have a harder time recognizing nonwhite faces.

Ett annat extremt exempel värt att nämna är Tay. Microsoft utvecklade en chatbot vid namn Tay på Twitter som efter ett par timmar blev nynazist på grund av att ha blivit medvetet matad med nazistiska, sexistiska och rasistiska kommentarer av andra Twitteranvändare. Detta reflekterar inte nödvändigtvis att nazistiska normer hos Microsoft har kodifierats i algoritmen, utan snarare att Tay är ett exempel på artificiell intelligens avsedd att lära sig härma andra människor. Resultatet är en extrem form av behaviorism och social inlärning, en svamp som suger åt sig allt den blir tillsagd och sedan gör likadant.

Vidare i rapporten om algoritmer står det:

Man har också funnit att Google Sök i högre utsträckning visar annonser för välavlönade jobb för manliga profiler än för kvinnliga. Dessa exempel gör det tydligt hur kulturella värderingar, fördomar och etiska förhållningssätt finns inskrivna i algoritmer som i sin tur har möjlighet att påverka andra. Algoritmer och samhälle formar därmed varandra.

Låt oss titta i referensen de hänvisar till. Där står det: ”We cannot determine who caused these findings due to our limited visibility into the ad ecosystem, which includes Google, advertisers, websites, and users.”

Det är med andra ord inte säkert att det är Googles algoritm över huvud taget som är ansvarig för resultatet, utan det kan också vara annonsörerna, webbplatserna eller användarna. Ändå skriver rapportförfattarna att det är inskrivet i algoritmer och att dessa exempel är tydliga. Så referensen de hänvisar till är med andra ord inget stöd till det argument som läggs fram i rapporten om att algoritmer är kulturellt kodade.

Algoritmer, eller rättare sagt modellerna, av ovan nämnda slag gör alltid fel i viss utsträckning, och syftet är oftast att minimera felen snarare än att göra träningen perfekt (så kallad overfitting fungerar sällan utanför det omedelbara sammanhanget).

Kan algoritmer aldrig vara kulturellt kodifierade? Jodå. Men det finns ingen logiskt tvingande nödvändighet i att en algoritm är kulturellt kodifierad. Försök exempelvis hitta den kulturella kodifieringen i kvadratroten. Föreställningen om att eventuella normer är ”inskrivna” i algoritmerna verkar snarare vara något rapportförfattarna har tillskrivit algoritmerna utifrån sina egna kulturella perspektiv.

Hade rapportförfattarna fortsatt på sin analogi som presenterades inledningsvis, att algoritmer är som recept, så hade de också kunna dra den deduktiva slutsatsen att resultatet av algoritmen till stor del också beror på vad man stoppar in i modellen. Ett bakverk är ju som bekant beroende dels av råvarorna och dels av tillagningsproceduren. Enkelt uttryckt gäller principen ”skit in, skit ut” oavsett hur bra tillagningsproceduren i övrigt är, vilket sätter fokus på hur algoritmerna har tränats snarare än hur algoritmerna är skrivna. För skillnaden mellan ett recept och en algoritm är att recept specificerar vilka råvaror du ska tillaga. Algoritmer gör det inte, utan antas kunna lösa generella problem.

Denna distinktion, som rapportförfattarna introducerar men överger, gör mig bekymrad att rapportförfattarna inte riktigt förstår algoritmer eller hur de fungerar, vilket är anmärkningsvärt med tanke på att författarna har till uppgift att lära andra hur algoritmer fungerar och dessutom har skrivit tre rapporter om ämnet för Statens medieråd, Regeringskansliet och Skolverket.

Google kan rimligen anklagas för att skriva en dålig algoritm som exempelvis prioriterar fel innehåll i deras sökmotor, liksom att de kan kritiseras för att träna algoritmen med ett skevt urval av exempel. Detta ska lyftas upp och kritiseras. Men när användare manipulerar innehållet, som modellen ifråga sedan utgår ifrån, kan Google möjligen anklagas för moralisk passivitet om detta innehåll får konsekvenser som Google inte rättar till. Likaså bör vi kritisera Google när de använder träningsdata som är skev i någon bemärkelse. (Givetvis gäller samma argument för andra företag, men Google får tjäna som exempel här.)

Det rapportförfattarna lyfter fram, de etiska aspekterna såsom transparens inför automatiskt beslutsfattande som bygger på proprietära algoritmer, är därför en mycket viktig fråga. I synnerhet om de i vid utsträckning införs allt mer i den offentliga sfären bland myndigheter.

Vidare skriver rapportförfattarna (s. 15):

Big data hanterar, som namnet antyder, stora mängder data, men syftar i sin betydelse snarare på hur man sammanför olika data för att kunna urskilja mönster. Man använder då algoritmer för att utföra så kallade förutsägande (predikativa) analyser genom att förstå hur olika skeenden hänger ihop. Det handlar inte minst om att förutspå konsumentbeteenden och individers preferenser, men andra användningsområden är också tänkbara. Exempelvis kan de ord vi söker på i Google Sök användas för att bedöma allmänhetens intresse för olika politiska frågor, för att förutse valresultat eller hur en influensaepidemi sprider sig. (Google Flu Trends, GFT)

Det kanske inte är ett lyckat exempel då Google Flu Trends är nedlagd sedan flera år tillbaka eftersom det inte fungerade.

Läs mer

Jag har nyligen skrivit ett avsnitt i en kommande rapport om metoder för insamling och analys av data via sociala medier för MSB, och då lade jag fokus (förvisso ytligt) på en del algoritmer för maskininlärning. Jag vet inte när rapporten publiceras, men kan länka in den här senare.

Filosofen John Danaher har skrivit en rad artiklar och intressanta blogginlägg om hoten från ett algokratiskt samhälle, det vill säga ett samhälle där algoritmer snarare än människor står för politiska beslut:

Se också min egen artikel, mer om algoritmer i relation till big data:

Vad som varit populärt på Twitter under ett år

Trender är vad de sociala medierna som Twitter och Facebook själva kallar vad som är populärt just nu. Genom att undersöka dessa är det möjligt att se vad folk skriver och diskuterar.

Eftersom trender är offentliga för alla att se, är de sällan avbilder av vad människor skriver, tycker eller tänker eftersom trenderna också kan påverka vad människor väljer att skriva om. Det som är populärt kan därför bli ännu mer populärt (samma problem finns med opinionsundersökningar).

Här är exempelvis de tio vanligaste trenderna på Twitter under året, med antalet trender inom parentes:

  1. #ffse (1 662)
  2. #aktuellt (1 435)
  3. #lyrikfredag (1 374)
  4. #sthlmpol (1 218)
  5. United (1 042)
  6. Liverpool (1 027)
  7. Chelsea (1 001)
  8. Zlatan (983)
  9. Hovet (939)
  10. #GONINJAS (922)

Exakt hur Twitter avgör vad som är en trend är höjt i dunkel, men trender reflekterar dels vad som händer just nu snarare än vad som händer för dagen, och dels volymen av tweets. Med andra ord, ju fler tweets under en kort period, desto större chans att det blir en trend. Av det skälet valde jag att samla in trender varje timme, dygnet runt, under ett år.

Trender är personliga, men det är också möjligt att ange en plats för var man vill se trender. I det här fallet har jag valt Sverige som plats för att se vad som skrivs i Sverige under ett år.

Nedan ser du några diagram jag tagit fram för massmedier och politiska partier, som bygger på trender från mars 2016 till mars 2017.

Massmedier

Massmedierna har jag plockat fram genom att helt enkelt gå igenom ett stort antal av de mest förekommande trenderna och sedan lagt in dem i diagrammet.

SVT-programmen Aktuellt dominerar tillsammans med Opinion Live, men Expressen Live kommer inte långt efter. Det är de som har trendat flest gånger.

Politiska partier

När det gäller de politiska partierna visar diagrammet nedan hur ofta respektive partis namn har trendat. Räknat på detta sätt är det Moderaterna som har flest trender.

Du hittar hela analysen i form av en R Markdown notebook: Vad som trendat på Twitter under ett år. Data finns även fritt tillgänglig via GitHub.

Floden av upprördhet i sociala medier

Intressant diskussion om ökningen av populism mellan tidigare partiledaren för brittiska Liberaldemokraterna Nick Clegg och socialpsykologen Jonathan Haidt i debattmediet intelligence2.

Det jag framför allt vid lyfta fram är internets betydelse och vad Haidt kallar floden av upprördhet.

Floden av upprördhet

Sociala mediers betydelse tas upp ungefär 47:10 minuter in i klippet. Här är ett citat jag tycker summerar problemet med sociala medier bra, nämligen floden av upprördhet:

If a swastika is drawn on a locker in a junior high school in Illinois, everybody on the left will hear about it. And if an idiot holds up a sign saying “Patriotism is racism”, everyone on the right will hear about it. So, everyone is immersed in a river of outrage. And it’s very hard to see how we turn down the volume. I think the very idea of democracy is severely challenged by new technology.

Jag tror precis detta är nyckeln till selektiv exponering när det kommer till internet. Det är förvisso möjligt att bara ta del av material som bekräftar vad man redan tror. Det polariserar dock inte människor speciellt mycket, utan snarare tvärtom.

Men när en individ exponeras för information som går emot dennes övertygelser, och i synnerhet information som hotar den sociala identiteten, så tenderar polariseringen att öka.

Så när man tar del av information, dag ut och dag in, som går emot ens egna övertygelser, finns det ökad vilja till att mobilisera sig politiskt. Dock tenderar man att överskatta prevalensen av problemet på grund av en konstant repetition. Med andra ord, det är inte sin egen grupps förträfflighet man exponeras för, utan snarare problemen med alla andras. Lägg därutöver till information som ramas in på ett vis som förstärker, och i vissa fall även överdriver, detta problem.

Jag kommer förhoppningsvis utveckla detta i en artikel under hösten.

Läs och se mer

6 tjänster som kartlägger (och visar) din politiska användning av sociala medier

Det har dykt upp en mängd tjänster under den senaste tiden som visar hur vi använder sociala medier för att få politiska nyheter och information, och kanske i synnerhet hur begränsad bild av verkligheten vi får av sociala medier (eller medier i största allmänhet, egentligen).

Här har jag sammanställt några intressanta tjänster jag stött på, många av dem Chrome-tillägg, som visar vår medieanvändning på nätet eller varnar oss när vi surfar in på tvivelaktiga sajter.

I korthet är tjänsterna i tur och ordning: FlipFeed, PolitEcho, Data Selfie, Emergent, Viralgranskarens varningslista och Ekokammaren.

FlipFeed låter dig se hur en annan persons flöde ser ut på Twitter genom att installera ett Chrome-tillägg. Se flödet genom ögonen från en person från den politiska vänster- eller högerkanten. FlipFeed är utvecklat hos MIT.

PolitEcho är ett Chrome-tillägg som försöker förutsäga dina Facebookvänners politiska åsikter utifrån vilka nyhetssidor som dina Facebookvänner har gillat. Notera att detta tillägg enbart fungerar för amerikanska nyhetssidor.

Data Selfie är ytterligare ett Chrome-tillägg som visar vilken information som skickas till Facebook när du surfar på nätet. Tillägget registrerar vad du tittar på, hur länge du tittar på det, vad du gillar, vad du klickar på och allt du skriver på Facebook. Enkelt uttryckt, du blir kartlagd. Tillägget låter dig sedan se all insamlad information. (Datan som tillägget samlar in sparas bara på din egen dator, den skickas inte vidare.)

Emergent visar hur overifierad information som rykten sprids på nätet, i realtid. Det är ett projekt från Columbia University.

Viralgranskarens varningslista är ett Chrome-tillägg som varnar för svenska sajter som är kända för att sprida exempelvis påhittade nyheter. Tillägget bygger på en amerikansk dito som kallas B.S. Detector.

Ekokammaren visar svenska nyhetssidor och intresseorganisationer som finns på Facebook, kategoriserade efter politisk tillhörighet. Det gör det enkelt att jämföra hur diverse Facebooksidor skriver om ett och samma ämne.

Filterbubblor: 3 kommentarer – 3 svar

Ekokammare

I denna text kommer jag redogöra för några kommentarer jag fått kring min artikel om filterbubblor och ekokammare under politiska val. Jag kommer även redogöra kort för hur folk tänker efter att ha använt medier.

Jesper Åström har skrivit några kommentarer på Facebook som jag lovade att besvara i lite längre utförlig form när jag fick tillfälle (alltså nu!).

Jesper arbetar enligt egen utsaga med digital taktik och viral marknadsföring och höll relativt nyligen en underhållande föreläsning på Internetdagarna 2016 om internettroll som jag rekommenderar andra att se, samt omnämns i en läsvärd kolumn av Andrev Walden om rasister på nätet.

Jesper är bland annat kritisk till tre saker i min artikel: (1) att jag är instängd i en filterbubbla och därmed bara kommenterar det jag ser, (2) att jag inte ger något belägg för forskningen och (3) att problemet är hur folk uppfattar minoriteters åsikter som mer vanliga än vad de faktiskt är.

Jag har återgett Jespers kommentarer här, men organiserat om texten i teman. Dessutom gör jag lite sporadiska utvikningar som inte nödvändigtvis är relaterade till Jespers kommentarer.

1. Instängd i en filterbubbla

Först av allt verkar Jesper mena att de enda nyheter jag läst handlar om filterbubblor eftersom jag själv är fast i en filterbubbla, och att jag därmed överskattar hur mycket journalister har skrivit om filterbubblor.

Jesper
Det är lustigt att hans [alltså min!] argumentation bygger på antaganden som skapats av en nyhetsfiltrering där filterbubblor lyfts fram som det huvudsakliga skälet till utfallet i det amerikanska valet. Han kanske skulle applicera sin egen serieteckning på sig själv.

[…] Det jag menar är att det lyfts fram många fler analyser av amerikanska valet än filterbubblorna och falska nyheter. Alltså, att de lyfts fram som ledande i debatten av dig och av vissa andra medier, är en konsekvens av att det är det enda som ni får in i er filterbubbla –> både den som baseras på algoritmer och den som baseras på er institutionella, liksom privata omvärld.

Exempel på sådana förklaringar är att den amerikanska arbetarklassen var trött på etablisemanget, att amerikaner är rasistiska tölpar och att maskinerna var hackade av ryssarna.

Att du beskriver det i din post som att det är filterbubblorna som lyfts fram som huvudorsak till resultatet i det amerikanska valet, anser jag vara ett resultat av filtrering då det i det stora hela har varit en ganska så liten del av eftervalsanalysen. Fast din inledning skriver att texten ämnar beskriva varför effekten av dem varit överdriven.

Dvs. innan vi ens går vidare på innehållet i inlägget, så har du beskrivit din egen bild på frågan som filtrerad/indexerad utifrån ditt eget perspektiv. Alltså, du viktar det du själv uppfattat som den dominerande förklaringen högre än andra förklaringar, som i andra bubblor diskuterats flitigt.

Här har jag två invändningar.

För det första, hur vet Jesper vilka nyheter jag konsumerar och inte konsumerar? Det vore intressant att få beskrivet.

För det andra, självklart har medierna gjort många analyser. Jag påstår inte att filterbubblor lyfts fram som huvudorsaken, att de varit ledande eller dominerande i samhällsdebatten. Att jag medvetet väljer att enbart fokusera på endast filterbubblor beror på det enkla skälet att jag forskar om selektiv exponering.

Jag skrev dessutom detta: ”Efter det amerikanska presidentvalet blev frågan om filterbubblor och ekokammare aktuell som en av förklaringarna till Donald Trumps framgång.”

De påståenden som gjordes om filterbubblor (i medierna) var något överdrivna och gavs större förklaringskraft än vad de faktiskt har (jämfört med forskningen). Därmed var avsikten med min artikel att tona ned och ge en motvikt till de påståenden som gjordes i massmedierna (att moderera påståenden i massmedierna, om man så vill).

Så Jespers invändning att jag bara läser nyheter om filterbubblor och därmed tror att journalister bara har skrivit om filterbubblor verkar mer vara en effekt av vad Jesper tycker och tror. För att veta hur mycket medierna har skrivit om en viss fråga måste man göra en innehållsanalys. Av just det skälet avhåller jag mig från att göra påståenden som att ”i det stora hela har [det] varit en ganska så liten del av eftervalsanalysen.”

2. Var är forskningen?

Jesper
Sen skriver du följande; ”föreställningen om filterbubblors och ekokammares inverkan är tämligen överdriven”, utan att hänvisa till vilken forskning du menar.

Var ska vi börja? En god idé är att inleda med en översiktsartikel som sammanfattat forskningen. En av de senaste översiktsartiklarna skriver exempelvis: ”We conclude that – in spite of the serious concerns voiced – at present, there is no empirical evidence that warrants any strong worries about filter bubbles.” (s. 10). Den artikeln är dock inte speciellt systematisk och lämnar en del annat att önska.

Här är dock några andra artiklar:

  • “the fear of a fragmented society due to selectivity in using the Internet seems to be empirically groundless” (Kobayashi & Ikeda, 2009, s. 929)
  • “worry that the Internet will lead to an increasingly fragmented society appears to have been overstated” (Garrett, 2009a, s. 281)
  • “though many elements of ideological fragmentation are operating as predicted by filter bubble theories, the overall impact of these factors appears to be limited at this time” (Flaxman, Goel, & Rao, 2013, s. 32)
  • “previous work may have overestimated the degree of ideological segregation in social-media usage” (Barberá, Jost, Nagler, Tucker, & Bonneau, 2015, s. 1)
  • ”social media use actually attenuates rather than drives polarization” (Holmes & Sue McNeal, 2016)
  • Och den mest kärnfulla: “wrong” (Garrett, 2013, s. 248)

Och dessutom min egen högst preliminära slutsats från en konferensartikel: ”No support for political ideology and selective exposure mutually reinforcing and becoming more extreme over time.” (I det här fallet handlar det om fem månader.)

Kort sammanfattat: det finns mycket oro, men inte mycket forskningsstöd för idén om filterbubblor.

Notera dock att detta är ett medvetet selektivt urval (förutom översiktsartikeln) som visar att polarisering och medieanvändning inte förekommer. Poängen med detta urval är inte att säga att det endast är på detta vis, utan snarare vara en motvikt till föreställningen att sociala medier mer eller mindre alltid gör att människor bekräftar sina egna föreställningar.

Med andra ord, det är viktigt att påpeka att detta inte betyder att selektiv exponering inte kan ha andra effekter, eller att polarisering eller liknande inte kan förekomma. Polarisering förekommer. Men det gör det oftast under vissa speciella förutsättningar och det är inte helt klart vilka de förutsättningarna är i nuläget. Forskningen kring polarisering och medieanvändning är blandad, vissa studier visar ökad polarisering, andra minskad.

3. Det riktiga problemet, kognitiv dissonans och illusionen av majoritet

Det riktiga problemet

Jesper
Men problemet ÄR INTE utgången i det amerikanska valet, eller falska nyheter eller ens urvalet av information. Problemet ligger i att användare upplever extremer som majoriteter vilket gör att normen för vad som är rimligt i ett samhälle förskjuts. Då får extrema människor luft under vingarna. Om vi därtill lägger en sviktande massmedia som inte är indexerad, men som följer med de trender de tror är majoriteter, så kommer de förstärka den bilden av verkligheten – som egentligen bara finns hos ett fåtal.

Jag instämmer delvis.

Uppfattningen om vilka som är majoriteter och minoriteter är en av mina delstudier i avhandlingen (Selektiv exponering och medieffekter på nätet), och den mer övergripande frågan har mina kollegor nyligen fått pengar till för ett långsiktigt forskningsprojekt (Påverkas vår världsbild av selektiva medieval?).

I brist på opinionsundersökningar använder vi det näst bästa vi människor kan få tag på, vilket ofta är anekdoter från andra, illustrativa exempel, och i allt högre utsträckning yttranden i sociala medier. Detta fenomen går ibland under namnet exemplification theory.

Men om detta verkligen är ett stort problem beror på hur en individs totala medievanor ser ut. Även om det är fallet att alla socialdemokrater som besöker Facebook endast får höra nyheter om hur bra socialdemokrater är, och motsvarande för moderater, kan de ändå få höra motsatsen så fort de går utanför Facebook så att nettoeffekten blir noll. Om människor endast tar del av nyheter via Facebook tror jag vi har ett problem. Men i dagsläget är vi inte där.

Även om vi kan demonstrera upprepade gånger med hög säkerhet att A påverkar B, vet vi ändå inte om effekterna försvinner efter timmar eller dagar, eller om de sitter kvar i flera år. Vi vet inte ens om det finns omständigheter där effekterna upphävs.

Jesper verkar därför beskriva sina farhågor (vilka jag delvis delar), men det är ju något annat än det empiriska underlaget. Jag skulle därför gärna vilja se lite mer stöd för Jespers påståenden, särskilt påståendet att normerna för vad som är rimligt förskjuts, och att massmedier följer trender som de tror är majoriteter (snarare än att massmedierna, som forskningen visar, publicerar nyheter som passar medielogiken). Det är en sak att tro det och en annan sak att visa det.

Det jag har talat om hittills rör exponering. Låt oss därför vända blicken mot människors uppfattningar och tolkningar av information.

Kognitiv dissonans

Jesper
Jag tycker också att det är konstigt att han helt väljer bort att prata om kognitiv dissonans. […] Det jag skriver också är hur detta påverkar vår kognitiva förmåga att ta till oss ”fakta” då vi upplever att vår egen bias är den dominerande. Eller, då våra värderingar skiljer sig från våra betraktelser. https://en.wikipedia.org/wiki/Cognitive_dissonance

Det är ju knappast några nya forskningsområden vilket gör att jag gärna mottar referenser eller länkar till forskning som säger att det inte förhåller sig på det sättet.

Jag har förvisso inte ens påstått att det inte förhåller sig på det viset. Kognitiv dissonans spelar snarare en ganska liten roll, och är endast en liten del av många faktorer (vilket kanske bäst förklaras under paraplybegreppet defense-oriented motivated reasoning).

Kognitiv dissonans är faktiskt den allra mest utforskade teorin i relation till selektiv exponering, historiskt sett. Ta en av de senaste meta-analyserna om just selektiv exponering och kognitiv dissonans som exempel. Den visade en homogen medeleffektstorlek på r = 0,241 viktad på sampelstorlek (kap. 7, studie 2) för experiment från 1960-talet som tidigare inte hittade några större effekter (eftersom själva statistiken för meta-analyser inte var utvecklad då). På ren svenska betyder det att det finns ett svagt stöd för idén om att människor väljer information som stödjer deras uppfattning efter att de fått se dissonant information (så kallad post-decisional cognitive dissonance).

Man kan invända mot att studier som gjordes på 1960-talet inte har någon förklaringskraft för internet i nuläget, men det är snarare teorin som inte har speciellt stor förklaringskraft: ”this area of research is interesting theoretically […] but of limited practical implication. By definition, a theory of postdecisional cognitive dissonance can predict neither behavior nor cognitive processing before a decision, including the decision-making process itself, and so it is of limited utility to people who have a vested interest in the valence of decisions.” (s. 114)

Och om vi tar internetnyheter i beaktande: ”These results refute the cognitive dissonance explanation for selective exposure […]”. En lite snällare tolkning säger dock att forskningen har visat ”mixed evidence, at best”.

Så varför har jag valt bort att prata om kognitiv dissonans när jag pratar om selektiv exponering? För att det inte är speciellt relevant i ljuset av andra teorier. Motivated reasoning ska jag dock skriva mer om senare, och mer utförligt i en bok jag håller på att redigera.

Majoritetsillusionen

Jesper
Och nu kommer vi in på mitt tredje stycke där jag menar att upplevelsen av majoritet inte är det samma som faktisk majoritet. En referens som är bra här är denna – https://www.technologyreview.com/…/the-social-network…/

När det gäller den så kallade majoritetsillusion i sociala nätverk, är det intressant att Jesper väljer just den eftersom jag tänkte skriva om den ett tag men glömt bort det. Det är relevant och bra att han lyfter upp den.

I Tyskland genomfördes ett experiment på detta tema förra året och de fick dock negativt resultat (The sense of the visible others). Andra studier har dock fått positivt resultat. Så hur tolkar man studier som talar för denna idé samtidigt som det finns studier som talar mot? Det är därför vi forskar – resultaten spretar åt olika håll och vi försöker ta reda på varför.

Det är också därför en (1) enda empirisk studie sällan betyder något. Man måste göra många studier om ett fenomen för att därefter kunna dra säkrare slutsatser (studierna ska också vara bra genomförda, men det är underförstått). Titta exempelvis på figur 1 på sidan 4 i denna översiktsartikel som visar det på ett utmärkt vis: Is everything we eat associated with cancer? A systematic cookbook review. Det är detta som är skälet till att man sällan kan blåsa upp en enskild studie, och varför forskning är så långsamt.

Och relaterat till det som jag påpekade tidigare: så fort en opinionsundersökning dyker upp så tenderar människor att anpassa sina övertygelser efter undersökningen ifråga (så länge de inte är defense-oriented). Så man måste återigen ta människors hela mediediet i beaktande, och det går inte att dra slutsatser om hur människor tänker, generellt sett, utifrån isolerade exempel.

Just majoritetsillusionen som Jesper nämner i sin kommentar är däremot ett exempel på när universitet försöker göra sin forskning mer relevant genom att överdriva den. Så här beskrivs studien om majoritetsillusionen i ingressen hos MIT, med min fetmarkering: ”Network scientists have discovered how social networks can create the illusion that something is common when it is actually rare.”

Men det är inga nyheter.

Grundforskningen undersökte det systematiskt redan på 1970-talet, och andra har undersökt fenomen som falsk konsensus, social projektiontystnadsspiralenbase rate fallacy och tidigare nämnda exemplification theory – bara för att nämna några – vilket alla är fenomen som i varierande grad undersökt hur människor tolkar saker som mer vanliga än vad de faktiskt är.

Den så kallade majoritetsillusionen är inget nytt, utan egentligen ett fall av bristande induktivt resonerande. Och det har studerats ända sedan Aristoteles epagoge. (Och nej, jag påstår naturligtvis inte att Aristoteles upptäckt just majoritetsillusionen i sociala nätverk.)

Vi vet exempelvis från meta-analyser att de som tillhör en majoritet underskattar storleken på sin majoritet (medeleffektstorlek r = 0,33), medan de som tillhör en minoritet tenderar att i högre utsträckning överskatta storleken på sin minoritet (medeleffektstorlek r = 0,49).

Effekten av selektiv exponering på polarisering verkar medieras delvis av perception av opinionsklimatet. På vanlig svenska betyder det att uppfattningen av opinionsklimatet kan tänkas ha en delvis indirekt påverkan på sambandet mellan selektiv exponering och polarisering. Vilket berör det som Jesper nämner.

Däremot är det alldeles utmärkt att systemvetare och fysiker undersöker sociala nätverk eftersom de ofta har en matematisk approach (som i artikeln om majoritetsillusion) som kan användas till bland annat maskininlärning. Det kan vi förhoppningsvis få nytta av i framtiden!

Avslutningsvis

Jag hoppas denna genomgång av forskningen var lite mer klargörande och utvecklande. Som brukligt har jag redogjort för en mycket liten del av forskningen i ämnet eftersom jag inte har haft för avsikt (eller tid) att vara uttömmande eller representativ, utan har snarare godtyckligt valt ut olika aspekter.

Anledningen till att jag inte skrev om allt detta tidigare beror på tre saker. För det första var min förra text en motvikt till vad många medier skrev. För det andra håller jag på och planerar ett experiment för att undersöka fenomenet ifråga och tänkte att avvakta tills det är klart. Det är roligare att ha lite data att visa upp. För det tredje: tid.

Men det är en balansgång jag också har reflekterat kring: Bör jag skriva (här på bloggen) om enskilda intressanta studier som inte är representativa för forskningen? Eller bör jag försöka noga överväga forskningen innan jag skriver? Den första metoden är snabb och delvis journalistisk, den andra långsam och mer forskningsanknuten.

Oavsett vad svaret på frågan än blir i framtiden tar jag i nuläget gärna emot specifika frågor och kommentarer i kommentarsfältet nedan och besvarar dem vid tillfälle.

”Fyra av fem kan inte skilja journalistik från sponsrat innehåll”

En ny studie visar att unga är dåliga på källkritik. Men vänta? Studien existerar inte ens, utan består av några krönikor och sammanfattningar där forskare presenterar sina reaktioner. Ändå rapporterar journalister om studien. Var är källkritiken om bristande källkritik?

Jag intervjuades av P1 Medierna för någon vecka sedan om filterbubblor och ekokammare och fick bland annat frågan om varför journalister tror på filterbubblor och ekokammare trots att forskningsläget säger att det inte är ett speciellt stort problem i nuläget.

Jag har egentligen ingen aning (eftersom jag inte kan läsa tankar), men man kan åtminstone spekulera i att det bekräftar journalisternas uppfattning och att det har skrivits om det mycket under oktober och november. Det publicerades exempelvis betydligt fler artiklar om fejknyheter under dessa månader både i tryckt svenskt press och på den svenska webben, i förhållande till tidigare månader.

Fejknyheter är helt enkelt på tapeten, och källkritik är därför relevant just nu. Så när det kommer en studie som bekräftar bilden av att unga är dåliga på källkritik, då är det förmodligen enkelt att tro att studien är någonting på spåren.

Så här skriver P1 Medierna på sin hemsida nu:

Fyra av fem unga amerikaner kan inte skilja sponsrat innehåll från journalistik. Det visar Stanford-universitetet i en av de största studierna av frågan hittills. Nästan 8 000 elever och studenter, från högstadiet till universitetsnivå, har svarat på frågor om hur de värderar information. Och på många frågor hade de svårt skilja mellan till exempel PR och journalistik.

Nej, det visar studien inte alls.

Det finns inte ens någon studie. Det finns bara en executive summary. Det betyder inte att resultatet är fel, utan att det över huvud taget inte går att bedöma resultatet eller studiens kvalitet. Än, åtminstone. Men vi kan däremot titta på det som hittills är känt.

Så här står det i executive summary, på sidan 23:

We piloted several drafs of this task with 350 middle school students. We completed final piloting with 203 middle school students. Results indicated that students were able to identify traditional news stories and traditional advertisements: more than three-quarters of the students correctly identifed the traditional advertisement and the news story. Unfortunately, native advertising proved vexing for the vast majority of students. More than 80% of students believed that the native advertisement, identifed by the words “sponsored content,” was a real news story.

Och så här säger pressmeddelandet från Stanford:

But of the 203 students surveyed, more than 80 percent believed a native ad, identified with the words ”sponsored content,” was a real news story.

Så det är minst 162 elever av totalt 203 elever som inte kan skilja mellan sponsrat innehåll och journalistik. Det är knappast ett slumpmässigt urval av unga amerikaner, och det är inte de 8 000 eleverna som det förefaller i P1 Mediernas ingress. Det går därför inte uttala sig om ”fyra av fem unga amerikaner” (det vill säga 80 procent).

Vidare står det på sidan 2 i executive summary:

Between January 2015 and June 2016, we administered 56 tasks to students across 12 states. In total, we collected and analyzed 7,804 student responses.

Det betyder att 56 uppgifter genomfördes av totalt 7 804 elever och studenter. Det var alltså inte 7 804 elever som genomförde 56 uppgifter, vilket man kanske kan tro.

Inte ens Wikipedia, som rapporterat om studien under artikeln Fake news website, ger speciellt informativ beskrivning av resultatet (mina fetmarkeringar):

Education and history professor Sam Wineburg of the Stanford Graduate School of Education at Stanford University and colleague Sarah McGrew authored a 2016 study which analyzed students’ ability to discern fraudulent news from factual reporting.[69][70] The study took place over a year-long period of time, and involved a sample size of over 7,800 responses from university, secondary and middle school students in 12 states within the United States.[69][70] The researchers were ”shocked” at the ”stunning and dismaying consistency” with which students thought fraudulent news reports were factual in nature.[69][70] The authors concluded the solution was to educate consumers of media on the Internet to themselves behave like fact-checkers — and actively question the veracity of all sources they encounter online.[69][70]

Vem bryr sig om forskarnas reaktioner? Det viktiga för en encyklopedi borde väl vara resultatet av studien, inte vilka känslor forskarna visade under tiden. Vi får faktiskt inte veta något substantiellt över huvud taget från Wikipedia.

Det finns alltså inga spår av den här studien. Bara pressmeddelande från Stanford och en executive summary. De enda publikationerna som forskarna visar på projektets hemsida är en krönika i Education Week!

Däremot finns det mängder med nyhetsartiklar som rapporterar kring studien, här är några av dem:

Vad är detta?!

Det finns inget underlag för att göra bedömningar av studien över huvud taget. Som det ser ut nu är denna studien ett skämt av det enkla skälet att det inte finns någon studie att bedöma, och executive summary visar verkligen ingenting av värde. Men jag kan ha fel, och då tar jag tacksamt emot rättelser i kommentarsfältet.

Varför Stanford lyfter fram studien i ett pressmeddelande är också märkligt. Varför någon journalist publicerar den är ytterligare ett frågetecken för mig. Det blir extra pinsamt när en studie om bristande källkritik bland unga inte källgranskas av de journalister som rapporterar om den.

Uppdaterat

Jag hann knappt sova ett par timmar efter att jag skrivit denna text innan P1 Medierna hade korrigerat sin text på hemsidan:

Fyra av fem unga amerikaner kan inte skilja sponsrat innehåll från journalistik. Det rapporterar Wall Street Journal utifrån en ännu opublicerad studie från Stanford-universitetet. Resultatet baserar sig på en liten delstudie med 200 elever i hela Stanfords projekt, som totalt berört nästan 8 000 elever och studenter, från högstadiet till universitetsnivå. Innan hela studien publicerats är det svårt att bedöma bärigheten i resultaten.
OBS: Denna notis är uppdaterad. En tidigare version kritiserades av medieforskaren Peter M Dahlgren.

Föredömligt som vanligt av journalisterna bakom P1 Medierna.

Filterbubblor och ekokammare under politiska val

Ekokammare

Efter det amerikanska presidentvalet blev frågan om filterbubblor och ekokammare aktuell som en av förklaringarna till Donald Trumps framgång. I denna text ska jag ge några skäl till varför effekten av filterbubblor och ekokammare är överdriven, delvis baserat på min egen forskning.

Ett vanligt förekommande fenomen är att människor framför allt tar del av nyheter och information som bekräftar vad de redan tror. Detta brukar förklaras med selektiv exponering och confirmation bias. Åtminstone i forskningen. I massmedier är detta ofta beskrivet som filterbubblor och ekokammare.

Men journalister och massmedier är dock duktiga på att lyfta fram just filterbubblor och ekokammare och ge dem ovanligt stor förklaringskraft, kanske för att det går trender och att många journalister använder sociala medier själva (dock långt ifrån alla) där exempel efter exempel på falska nyheter, propaganda och uppenbara lögner har spridits.

Det går naturligtvis inte sticka under stolen med att filterbubblor och ekokammare kan vara en bidragande orsak. Men det intressanta är ju i vilken utsträckning det är en bidragande orsak, och i nuläget finns det inte mycket som tyder på att den är speciellt stor.

För att sammanfatta forskningen i en mening kan jag säga att föreställningen om filterbubblors och ekokammares inverkan är tämligen överdriven. Det finns flera skäl till att vara skeptisk till det och jag ska redogöra för ett godtyckligt antal av skälen i denna text.

Men först:

Vad är filterbubblor och ekokammare?

Med filterbubblor menas oftast algoritmer som styr vad som ska visas i exempelvis en sökmotors resultatsidor och i våra nyhetsflöden på sociala medier. Dessa resultatsidor och nyhetsflöden påverkas i sin tur av vårt användande av dem.

Då människor generellt föredrar information som bekräftar vad de redan tror (ett väletablerat faktum i forskningen), är idén att människor klickar sig allt djupare in i en omslutande ”bubbla” av information som allt mer bekräftar vad de redan tror. På så vis återkommer (”ekar”) välbekant information dag ut och dag in.

Forskningen om filterbubblor är dock inte speciellt omfattande, utan startade i mångt och mycket med Eli Parisers bok The Filter Bubble. Det är förvisso ingen akademisk bok, utan i mångt och mycket en bok om Eli Parisers egna erfarenheter och farhågor av att använda Google med några illustrativa exempel.

Boken har gett upphov till mycket diskussion och forskningsfrågor, men det är kanske bäst att se boken på just det viset och inte som ett bevis på problemen med sökmotorer eller sociala medier.

1. Alla algoritmer är inte personaliseringar

Först av allt verkar det finnas en vanlig missuppfattning att algoritmer kan likställas med personalisering. Men algoritmer är långt ifrån synonymt med personalisering.

En algoritm är helt enkelt instruktioner som en dator följer för att slutföra en specifik uppgift, precis som vi människor följer ett recept i en kokbok. En algoritm kan därför vara väldigt enkel (exempelvis ”Om A är lika med 1, så ska B utföras”) eller betydligt mer komplex, och kan slutföra vilken typ av uppgift som helst (det vill säga, den behöver inte vara relaterad till personalisering). Det är samma för recept, du kan göra ett bakverk eller ett sprängmedel.

Personalisering innebär, i detta sammanhang, att sociala medier och sökmotorer kommer ihåg och anpassar sig efter vad just du gillar, klickar på eller liknande. Klickar du exempelvis på länkar om att mänsklig klimatpåverkan är falsk så kommer mer länkar om att mänsklig klimatpåverkan är falsk att visas framöver. Risken är då uppenbar: Du får tills slut bara se länkar om hur mänsklig klimatpåverkan är falsk.

Men då missar man alla andra algoritmer som också finns i sociala medier och sökmotorer. Google arbetar med att kontrollera sanningshalten i påståenden, att öka mångfalden på YouTube genom att infoga relaterade videor, med mera. Facebook har också algoritmer som visar relaterade länkar till en upplagd länk, vilket har visat sig minska effekten av ekokammare. Kort sagt, det finns många algoritmer och några kan öka filterbubblan, andra minska den. Vi vet alltså inte ens åt vilket håll pendeln lutar, generellt sett.

Men detta är den tekniska biten. Forskningen visar också att människor tröttnar på att höra samma sak flera gånger, även under kortare tidsperioder som ett par timmar, och letar sig därför vidare till annan information som säger emot deras övertygelser. Med andra ord, tekniken kanske har ändrats drastiskt på senare år, men människor är fortfarande stenåldersmänniskor.

Så vad är konsekvenserna av filterbubblor på sikt? Det är svårt att säga, men vad som däremot är säkert att säga att det är lätt att överdriva och antingen prata om en av två ytterligheter där tekniken styr människorna eller där människorna styr tekniken. Sanningen pendlar dock fram och tillbaka mellan dessa två ytterligheter beroende på sammanhang.

Därför är varningarna om filterbubblor och ekokammare också överdrivna eftersom det verkar bygga på antagandet att människor bara vill bekräfta sina övertygelser och att algoritmer bara syftar till att personalisera innehållet i sociala medier, vilket endast är sant om man ignorerar alla andra tillfällen då de inte gör det.

2. Preferenser är inte val

Även om det är ett etablerat faktum att människor föredrar nyheter och information som bekräftar vad de redan tror, följer det inte att de också exponerar sig för sådana nyheter. Inte heller följer det att de undviker nyheter som säger emot deras övertygelser. Det går alltså alldeles utmärkt att föredra nyheter som bekräftar ens övertygelser, och ändå exponeras för nyheter som går emot ens övertygelser. Det är också ett väletablerat forskningsresultat.

Det är nämligen viktigt att skilja mellan vad man själv föredrar, vad man själv väljer och vad man exponeras för som andra har valt. Det vi väljer kan också skapa en preferens för det vi har valt (så kallad mere exposure effect), vilket innebär att det inte är så enkelt att människor har en färdig åsikt och sedan inhämtar information som bekräftar den. De kan mycket väl vara tvärtom: de har inte en åsikt, utan blir exponerade för en specifik information som sedan hjälper till att forma en åsikt.

Vi får en mängd nyheter som dyker upp i våra flöden som inte bekräftar vad vi redan tror, och vår benägenhet att klicka vidare till dessa nyheter påverkas av sociala faktorer (som hur populära de är, vem som är avsändare, vilka relaterade nyheter det finns, vilket humör man är på, med mera), och inte bara huruvida innehållet bekräftar vad vi redan tror.

3. Våra vänner är inte homogena

I sociala medier sägs det ofta att vi blir vänner med människor som tycker likadant som oss själva. Forskningen visar att det stämmer i viss utsträckning. Men forskningen visar också att vi är relativt dåliga på att bedöma vilken politisk övertygelse våra vänner har. En anledning till det är att våra vänner (både offline och online) ofta kommer från arbetsplatsen där det redan finns en bredd av politiska åsikter.

Dessutom blir våra personliga nätverk mer diversifierade ju mer vi använder sociala medier. Så det borde innebära att vi exponeras för en större mångfald, inte mindre, ju mer vi använder sociala medier.

Det är dessutom de yngre som använder sociala medier mest, och det verkar vara äldre som i högre grad röstade på Donald Trump. Om nu filterbubblor och ekokammare vore den bidragande faktorn till detta valresultat (som när nyheter från högersidan med falsk information sprids på Facebook) skulle vi förvänta oss att sambandet vore tvärtom.

4. Intresserade rör sig över gränserna

De som är politiskt intresserade har ofta redan en stark politisk övertygelse och rör sig över blockgränsen och exponerar sig för nyheter som rör motståndarsidan, det vill säga nyheter som går emot deras övertygelser. De som inte är politiskt intresserade tar helt enkelt inte del av speciellt mycket nyheter från varken den ena eller andra sidan.

Detta leder till den paradoxala situationen att de som är mest mottagliga för att påverkas av information inte exponeras för den, och de som är minst mottagliga för att påverkas av information är de som exponeras mest för den.

5. Polariseringen startade innan sociala medier

Man skulle kunna tänka sig att människor som tar del av information som bekräftar vad de redan tror också kommer att bli mer extrema i sina politiska övertygelser ju längre de håller på. Men det verkar de dock inte bli, enligt en artikel jag presenterade på kommunikationskonferensen Ecrea i Prag häromdagen, som jag skrivit tillsammans med Adam Shehata och Jesper Strömbäck.

Politiska övertygelser är tvärtom relativt stabila över tid och benägenheten att exponera sig för nyheter från motståndarsidan är också relativt stabil – oberoende av varandra. Med andra ord verkar inte den politiska övertygelsen förstärka benägenheten att exponera sig för nyheter som bekräftar den egna eller andra sidan, eller vice versa. En av anledningarna är att upprepad exponering för samma typ av nyheter tappar i effekt.

Det gäller Sverige och svenskarna, men forskare från Tyskland jag pratat med under konferensen har också nått likartade resultat, dock inte publicerat i någon tidskrift ännu, liksom tidigare resultat från Nederländerna. Både Tyskland och Nederländerna har ungefär samma partisystem som Sverige.

De som pratar om ökad polarisering hänvisar ofta till USA och kraftigt vinklade medier på vänster- respektive högerkanten, mycket tack vare att det bara finns två partier och kandidater att välja mellan. Men även där tycks tendensen vara densamma.

Polariseringen inom den amerikanska kongressen och allmänheten ökade exempelvis långt innan sociala medier eller vinklade nyhetsmedier på nätet slog igenom på bred front. Vad som därför är en rimligare tolkning är att vinklade medier har vuxit fram ur en redan befintlig politisk polarisering, snarare än att vinklade medier har skapat politisk polarisering.

Om man förväxlar detta orsakssamband är det lätt att gå vilse och peka ut fel förövare, såsom filterbubblor och ekokammare, och ödsla tid på att försöka lindra problemets symptom snarare än att försöka komma till rätta med problemets orsaker.

6. Nyhetsdelningar är inte mått på hur många som tror på nyheten

Det kanske är uppenbart, men av mina diskussioner med journalister att döma behövs det påpekas upprepade gånger: bara för att en nyhet har delats tusen gånger betyder det inte att tusen personer tror att nyheten är sann.

Man kan dela en nyhet av flera skäl, till exempel för att kommentera sanningshalten i texten eller helt enkelt för att man roas av den. Inte minst delar personer på högerkanten artiklar från vänsterkanten (och vice versa) genom att påpeka det absurda i någon detalj.

Så när en nyhet har delats tusentals gånger vet vi inte varför. Vi vet bara att den delats tusentals gånger.

Sedan har vi begreppen engagemang eller interaktioner. Det är begrepp som massmedierna själva har hittat på genom att slå ihop alla siffror som rapporteras från Facebook. Facebook rapporterar nämligen antalet gillningar, kommentarer och delningar, vilket tillsammans blir ”engagemang”. En fejknyhet om valet har exempelvis fått 700 000 engagemang. Men hur ofta har den gillats, kommenterats och delats? Det vet vi inte eftersom pratet om ”engagemang” döljer den informationen. Så vi har alltså en situation där mängder av siffror slås ihop och bildar nya, större siffror. Dessa stora siffror tas sedan som ett mått på problemen i samhället: Tänk att en fejknyhet har fått 700 000 engagemang! Men eftersom vi inte vet vad som döljer sig bakom denna siffra bör man förhålla sig skeptisk och ta reda på vad som har hänt, och mer viktigt varför det har hänt. Men på inga sätt kan man utifrån blott denna information dra slutsatsen om hur det påverkar människor, som att de tror på nyheten ifråga.

Att sätta ett likhetstecken mellan antal engagemang och storleken på samhällets problem är endast ett antagande, inte ett observerbart faktum. Sluta sätta så stor tilltro till stora siffror.

Slutsats

Filterbubblor, ekokammare, selektiv exponering och confirmation bias i alla ära, det är mitt forskningsområde och jag skulle gärna vilja överdriva dess betydelse för att göra min egen forskning mer relevant. Men faktum kvarstår att det i nuläget inte kan förklara speciellt mycket av den polarisering vi ser, varken i amerikanska val (som en majoritet av forskningen utgår ifrån) eller svenska val.

Det är så många faktorer som samverkar på samma gång att det är för svårt att peka ut en enda faktor, även om det känns intuitivt när man tittar på sociala medier och ser en person som delar en artikel fylld till bredden av faktafel, och att det därmed ”måste” vara en konsekvens av användningen av sociala medier.

Men däremot kan ekokammare och filterbubblor ha stor förstärkande effekt på redan befintlig polarisering. Så när vi ser extrema avarter i sociala medier så ser vi sällan genomsnittssvensken som hamnat i en ond spiral av filterbubbla, utan oftare ser vi just den extrema avarten som har fått ett medium för att göra sin röst hörd.

Forskares uppgift är då delvis att ignorera avarterna och i stället studera majoriteten, precis som vi inte studerar en sekt för att sedan dra slutsatser om befolkningen eller religioner i allmänhet.

Men låt oss leka med tanken att filterbubblor och ekokammare är de viktigaste förklaringarna till att människor röstar som de gör. Då följer genast ett par frågor: Vad förklarar tidigare val där sociala medier inte fanns? Och varför är en republikan, i stället för en demokrat, invald som president i detta val om människor helt enkelt bara bekräftar sina egna övertygelser – borde vi inte se samma resultat vid varje val och opinionsundersökning?

När massmedierna försöker lägga större delen av fokus på just fejknyheter på Facebook som en förklaring till ett valresultatet finns det alltså all anledning att vara kritisk.

Läs mer

Se mer

På Internetdagarna 2017 höll jag en föreläsning om filterbubblor – se på YouTube.

Lyssna mer

Ställen där jag pratat mer om så kallade filterbubblor.

Sveriges Radio P1 Medierna i direktsändning: Mediers reklamjulklapp och falska filterförklaringar:

Varför spelar journalister med i hysterin om Årets julklapp? Lösenordläcka i fokus efter SVT:s granskning. Och filterbubblor och falska nyheter – fenomenen som seglat upp som roten till allt ont.

Podcasten Digitalsamtal avsnitt #059 – Den porösa filterbubblan:

”Filterbubblan” är ett dåligt definierat begrepp, och vars effekter dessutom överskattas kraftigt. Bubblorna är i själva verket väldigt porösa. Det säger Peter Dahlgren, doktorand i mediepåverkan på JMG i Göteborg.

I veckans avsnitt av Digitalsamtal pratar han bland annat om selektiv exponering och vad forskningen egentligen säger om hur mediakonsumenter väljer att gallra i informationsfloden och vilka effekter det får. Läs gärna också hans blogginlägg som kommenterar bubbeldebatten efter det amerikanska presidentvalet.

Podcasten Aning avsnitt 15. Filterbubblor med Peter Dahlgren:

Ett avsnitt i gränslandet mellan mediepåverkan, politisk kommunikation och social kognition. Hur påverkar långvarig användning av sociala medier människors världsbild? Vad är filterbubblor, selektiv exponering, ekokammare och confirmation bias? Hur bör man värdera nyheter? Medieforskaren Peter Dahlgren svarar.

Politisk polarisering mellan vänstern och högern

Vad förklarar den ökande politiska polariseringen i USA och Europa? Och varför ökar stödet för populistiska partier på högerkanten? Lyssna på denna keynote-föreläsning från amerikanska psykologiförbundet (APA) med socialpsykologen Jonathan Haidt.

Jag ska inte avslöja svaret på frågorna, utan hänvisar till videon. Den är väl värd den timme den tar att se, men kom ihåg att det framför allt handlar om polarisering från ett psykologiskt perspektiv. I denna text tänkte jag däremot sammanfatta några andra intressanta punkter, framför allt den om bristen på mångfald av politiska åsikter, vilket är en bidragande orsak till polarisering.

Haidt talar bland annat om hans teori moral foundations theory, vilket handlar om varifrån våra moraliska intuitioner kommer ifrån liksom hur de bidrar till att skapa den politiska vänstern respektive högern (mer om detta finns i hans utmärkta bok The Righteous Mind).

Brist på politisk mångfald

Han tar sitt eget vetenskapsfält som exempel och att en betydande andel psykologer ser negativt på presidentkandidaten Donald Trump, vilket delvis beror på bristen på mångfald när det kommer till politiska åsikter. I synnerhet när det kommer till hans eget fält (psykologi) som kraftigt domineras av personer på den politiska vänsterkanten. I USA, liksom i Sverige, är är vi vana vid att höra om mångfald som handlar om kön eller etnicitet. Till större delen handlar det om biologiska egenskaper.

Men vad som är mer viktigt, och vad som bättre förklarar polariseringen i samhället, är människors politiska åsikter. Det är därför viktigt att öka mångfalden bland forskarnas åsikter, så att vi inte har en situation där forskare sitter och skrattar (i samförstånd i fikarummet) åt hur dumma människor är som röstar på ”det” partiet.

Trump, för övrigt, är en auktoritär person – men inte fascist, påpekar Haidt. Det finns olika slags ideologier på högerkanten: de som vill ha en fri marknad och liten stat (Laissez-faire), de som vill göra förändringar långsamt (konservativa) och, slutligen, den typ som Donald Trump prenumererar på, de som glorifierar ingruppen och vill straffa avvikare (auktoritär). Därför är det inte konstigt att konservativa hatar Trump, just därför att han vill ha snabba förändringar.

Likaså är det viktigt att ha två saker i huvud samtidigt, uppmanar Haidt. När den politiska vänstern talar om ekonomiska ojämlikheter som orsak till fattigdom så har de rätt. När högern talar om moraliskt förfall har de också rätt. Med andra ord, båda sidor tar upp relevanta aspekter av problemet men gör samtidigt misstaget att försöka avfärda den andre sidan. Det handlar inte om antingen eller, utan både och.