Överdrifter och alarmism när medierna beskriver filterbubblor

Hur har medierna skrivit om så kallade filterbubblor? Dagens Nyheter och Svenska Dagbladet har sedan 2011 systematiskt beskrivit filterbubblor alarmistiskt och negativt, där algoritmer är onda och dolda medan journalistiken är god och transparent.

Det framkommer i en ny masteruppsats som Sofia Henriksson lade fram hos Stockholms universitet, vilken publicerades för två veckor sedan.

Henriksson har genomfört diskurs- och innehållsanalys med alla artiklar från DN och SvD som omnämner begreppet. Innehållsanalysen av totalt 83 artiklar visade bland annat att

  • 48 % av artiklarna beskriver filterbubblor som ett vedertaget begrepp som läsaren förutsätts känna till, exempelvis om begreppet nämns i förbifarten, eller att begreppet får en helt annan innebörd
  • 42 % av artiklarna är negativa
  • 31 % av artiklarna är alarmistiska
  • 6 % av artiklarna är positiva

Mediepanik

Hennes slutsats är att det finns en tendens till mediepanik bland artikelförfattarna i DN och SvD som skrivit om ämnet. Vidare skriver hon att:

Den alarmistiska och negativa diskursen har varit framträdande i rapporteringen sedan start från 2011 fram till 2017. […] I det empiriska materialet ger sig den negativa diskursen också i uttryck genom sarkastiska konnotationer kring filterbubblan. Där fungerar bubblan som ett omslutande och på vissa sätt inlåsande rum där det nästan enbart förekommer farliga och hotfulla åsikter. […] Den alarmistiska konnotationen där ord i materialet som hot, hat och terrorism förekommer står nästan helt utan att ifrågasättas i mediediskussionen kring filterbubblor.

Det förekommer väldigt sällan beskrivningar av hur algoritmerna faktiskt fungerar. Dessutom, människors ”individuella val att idag kunna bestämma vad denne vill konsumera tas inte med i diskursen”, vilket är anmärkningsvärt med tanke på att människors ökade valmöjligheter är en av grundsatserna som forskningen på området ifråga utgår ifrån.

Vi har alltså ett begrepp – filterbubbla – som beskriver hur både teknik och människa interagerar. Men medierna nämner sällan människans roll, och beskriver sällan hur tekniken fungerar. Det lämnar inte mycket kvar av begreppet, förutom som Henriksson påpekar: ”Medierna beskrev sällan den tekniska bakgrunden kring filterbubblan utan såg filterbubblan mest som ett hotfullt begrepp.”

I stället har filterbubblor ”ensamt [fått] ta ansvar för vem som valdes till USA:s president och att britterna valde att gå ur EU”, vilket innebär att diskussionen ”blir i dessa fall nästan för extremt”, enligt Henriksson.

Goda journalister, onda algoritmer

Några andra intressanta citat och observationer från uppsatsen:

  • I artiklarna ”hyllas journalisters sätt att sortera innehåll, medan den enbart algoritmstyrda sorteringen i sociala medier svartmålas på grund av brist på transparens.”
  • Henriksson menar att journalister ”förflyttar definitionen av filterbubblor till att de endast kan förekomma på andra plattformar än sina egna, gör dem det möjligt att kunna kritisera filterbubblorna på ett onyanserat sätt”
  • Journalister beskriver det som att de sorterar information medan algoritmer manipulerar sökresultaten och sociala medier. Men massmediers egna förstasidor styrs också av algoritmer samtidigt som journalisterna lägger ut nyheter på sociala medier.
  • Vidare beskrivs filterbubblor som att de ”aktivt hindrar journalister från att skapa demokratiskt material och bidra till ett fritt samhälle. Facebook beskrivs som laglöst och gränslöst där pedofiler och högerextrema får härja fritt och även gynnas av algoritmer […] Journalistiken beskrivs däremot med ord som hederligt och trovärdigt”.

Jag intervjuades för övrigt av Dagens Nyheter på telefon där jag påpekade att beskrivningarna av filterbubblor hade var tämligen överdriven i nyhetsmedierna. Jag kom inte med i artikeln.

Jag finner det tämligen ironiskt att journalister som skriver om falska nyheter eller filterbubblor inte är intresserade av att lyfta fram vare sig fakta eller andra synsätt. Det saknas nu bara artiklar om faktaresistens som ignorerar de omständigheter där människor tar till sig fakta.

Läs mer

Referens

Henriksson, S. (2017). Med nålen mot filterbubblan: En diskursanalys av DN:s och SvD:s användning av begreppet filterbubbla. Stockholms universitet. http://www.diva-portal.org/smash/record.jsf?pid=diva2:1107037

De snabbast växande orden i två miljoner nyhetsrubriker under tre år

Vilka ord har ökat och minskat i bruk bland drygt två miljoner nyhetsrubriker från 2014 till 2017? I den här analysen har jag tagit nyhetsrubriker som är insamlade från början av 2014 till och med juni 2017 för att se vilka ord som förekommit mest och vilka som har snabbast ökat i popularitet.

Vilka ord har ökat mest på kortast tid? Kanske inte så förvånande är Donald Trump väldigt omskriven, precis som på Twitter. Lika lite förvånande är det ett väldigt fokus på USA och Storbritannien.

Men intressant nog verkar också vanlig lokal nyhetsvärdering öka relativt mycket, apropå ”trafikolycka” och ”singelolycka”.

Se också de snabbast sjunkande orden.

Tittar man på de ord som ökade mest under 2015 så är det ”flyktingar”, vilket jag satt i relation till ”migrationer” respektive ”nyanlända”. Av grafen att döma verkar de svenska medierna nästan unisont börja skriva om flyktingar vid samma tillfälle, därav den vertikala ökningen av texter.

De här graferna har jag mest gjort för skojs skull, men jag tänker mig att denna typ av analyser kan vara en förhållandevis enkel början till att forska om agenda-sättning. Över lång tid ger de här analyserna väldigt intressant information jämfört med de korta nedslag som ofta görs i forskningen.

Mer intressant, tror jag, är att de också också kan användas för att identifiera var man bör starta sin undersökning (eftersom de är helt induktiva), snarare än att hipp som happ sätta upp sitt blöta finger i luften för att mäta vart vinden blåser.

Den fullständiga analysen har jag som vanligt lagt upp på GitHub där du hittar både källkod och länkar till datan som du kan ladda ned. Kom gärna med förslag på hur det kan göras annorlunda.

Fler analyser

Här är några andra analyser jag gjort i R med framför allt öppna data:

Big data i medieforskning

Att bara analysera rubriker går bra på en vanlig laptop. Det var inga svårigheter att ladda in en miljon rubriker i minnet. Vid två miljoner rubriker började datorn gå på knäna. R tog 11 gigabyte i anspråk för att köra unnest_tokens för att skapa en vektor på drygt 5,1 miljoner ord mappat till nyhetsrubrikerna.

Framöver behövs mer datorkraft för analyser av hela brödtexten, kanske med hjälp av Apache Spark som jag använt tidigare. Dock ska jag testa om bigmemory i R kan fungera eftersom den, vad jag förstår, genomför analysen på disken snarare än i minnet. Det går lite långsammare, men om man sysslar med forskning så är allt redan långsamt.

RMarkdown

Dokumenten i listan med länkarna ovan är gjorda med hjälp av RMarkdown, ett sätt att blanda källkod i valfritt språk, bilder, text och… tja, allt man kan tänka sig. Även om RMarkdown är skapat för språket R fungerar även andra språk och jag har exempelvis skrivit Python-kod i RMarkdown som jag använde som presentation under en lektion i web scraping. Det går med andra ord utmärkt att exportera till Powerpoint, Word, hemsidor eller PDF.

Det är ett behändigt sätt att paketera sina analyser. Steget från källkod till presentation blir minimalt, och det är också varför den brittiska regeringen valt att satsa på RMarkdown.

Jag tror detta kommer bli vanligare i framtiden. I stället för att presentera ett begränsat antal analyser på ett lika begränsat antal sidor så kan man dokumentera hela sin process för att låta andra upptäcka hur tankeprocessen har gått till, och även se resultat man kanske borde följa upp. Detta kan sedan bifogas till artikeln i ett appendix så att man kan se diagram och källkod tillsammans.

Frågan är vilken tidskrift som blir först med kräva att analyserna i Markdown bifogas till varje artikel? Stata 15 har ju också kommit ut med Markdown så R är ju knappast något krav längre.

5 intressanta föreläsningar du bör se

Internet är fantastiskt. Om man inte kan närvara på en konferens kan man alltid se de intressanta föredragen i efterhand eftersom de ofta spelas in och läggs på nätet. Här har jag därför samlat några intressanta föreläsningar jag sett och rekommenderar.

1. Reproducerbarhet i vetenskap

Brian Nosek, professor i socialpsykologi, pratar om hur man man kan öka reproducerbarheten inom vetenskap samt praktiska råd för hur man kan göra.

2. Vetenskapskommunikation och kriskommunikation

Hur både journalister och forskare kan minimera att vetenskapen förvanskas när den sprids i massmedierna, med Kathleen Hall Jamieson, professor i kommunikation.

3. Faktaresistens och motivated reasoning

Åsa Wikforss, professor teoretisk filosofi, pratar om motivated reasoning och hur våra motivationer kan påverka vad vi väljer att tro på. Video från Fjärde uppgiften.

4. Psykologin bakom konspirationsteorier

Varför tror folk på konspirationsteorier? Psykologen Rob Brotherton beskriver hur vi alla är intuitiva konspirationsteoretiker men att vissa är bättre (eller sämre) på att resonera än andra.

5. Könsskillnader mellan kvinnor och män

Debatt mellan Steven Pinker och Elizabeth Spelke, båda professorer i kognitionspsykologi, om könsskillnader mellan kvinnor och män.

Länkkarteller på #svpol

Okej, rubriken till trots handlar detta inte riktigt om länkkarteller. Det låter bara tufft att säga kartell.

Vad jag däremot har gjort är att återskapa Kate Starbirds metod från Information Wars: A Window into the Alternative Media Ecosystem som visar sajter som brukar länkas tillsammans på sociala medier när konspirationsteorier förs på tal.

Vilka länkar förekommer mest tillsammans? Det är frågan som bilden nedan svarar på. Men i stället för konspirationsteorier har jag valt att titta på #svpol generellt sedan november 2015. Och där dominerar traditionella massmedier. Det är huvudsakligen kvintetten Expressen, Aftonbladet, SVT, DN och SvD som förekommer mest tillsammans på #svpol, vilket tjockleken på linjerna och de röda bubblorna indikerar.

Jag använde algoritmen DrL för att skapa nätverket, som är force-directed, vilket i korthet innebär att domäner längre ifrån varandra har mindre med varandra att göra (färre länkar tillsammans). Därmed hamnar massmedierna i gröten i mitten eftersom de får flest länkar.

Läs mer

Se hela analysen av #svpol eller ladda ned källkoden i R om du vill göra samma sak själv.

Läser journalister källorna de hänvisar till?

Viskleken har nog de flesta hört talas om. En person säger något till en andra person, som i sin tur säger det till en tredje, och så vidare. Poängen är att informationen bitvis förändras på vägen.

I journalistiken (och i forskningen också, faktiskt) förekommer också visklekar. Man kollar helt enkelt inte upp källorna, utan accepterar slutsatsen någon annan har skrivit (och kanske inte ens förstått), för att sedan föra vidare slutsatsen ifråga. Här följer ett exempel.

Sveriges Radio Medieormen skriver så här:

New York Times har uppmärksammat fenomenet i en artikel om hur Googles algoritmer, oavsiktligt får man hoppas, har börjat diskriminera. Som exempel anger man en studie som visar att Googles platsannonser för högbetalda jobb oftare riktas mot män än mot kvinnor.

Följer man länken till New York Times kan man läsa detta:

Google’s online advertising system, for instance, showed an ad for high-income jobs to men much more often than it showed the ad to women, a new study by Carnegie Mellon University researchers found.

Klickar man sedan vidare till studien kan man läsa detta:

We cannot determine who caused these findings due to our limited visibility into the ad ecosystem, which includes Google, advertisers, websites, and users.

Så efter två klick kan man konstatera att originalpåståendet (”Googles algoritmer har börjat diskriminera”) inte hade mycket substans (”We cannot determine who caused these findings”). Även forskare har misstagit sig på samma punkt.

Det är väldigt positivt att massmedierna länkar till sina källor. Det gör deras arbete mer transparent och felaktigheter kan lättare upptäckas. För i ärlighetens namn är dessa fel inte förbehållet journalister. Forskare citerar också på samma sätt emellanåt, det vill säga till andrahandskällor utan att kontrollera originalkällorna. Den omvända praktiken förekommer också, att originalkällor citeras medan fullständiga vederläggningar av dessa källor inte alls citeras.

Fördelen inom akademin är dock att referenssystem både är standardiserade och nödvändiga. Därmed är också missuppfattningar i grunden demonstrerbara. Det finns inget värre än att läsa ”en studie har visat att”, vilket omedelbart skapar frågor. Vilken studie? När? Vem? Var? Hur?

I dag fick jag frågan varför så många tror att filterbubblor existerar trots att forskningen visar att de sällan gör det. Kanske kan viskleken vara en av förklaringarna. Om vi börjar med slutsatsen kan vi enkelt viska oss fram till vad som helst.

Fler exempel

”Det är algoritmerna” – en förklaring som betyder ”jag har ingen förklaring”

Algoritmer: Så påverkar de din vardag

Stiftelsen för internetinfrastruktur har släppt en ny rapport vid namn Algoritmer: Så påverkar de din vardag, skriven av Jutta Haider och Olof Sundin.

Här tänkte jag redogöra för min kritik mot dels rapporten och dels ordet ”algoritmer” i största allmänhet. För det som många menar när de säger ”algoritmer” verkar egentligen vara ”mjukvara”.

Algoritm: ett nytt ord för att ersätta mjukvara

Vad är det som gör att du ser det du ser på nätet? Det är algoritmerna. Hur kan du läsa den här texten just nu? Tack vare algoritmerna. Och vad är det som gör att du kan posta en kommentar i kommentarsfältet? Du gissade rätt, det är också algoritmerna. ”Algoritm” tycks vara de senaste årens buzzword i svensk press (se diagrammet nedan) som kan förklara vad som händer i det digitala samhället.

Men när ett begrepp tenderar att förklara allt blir vi inte mycket klokare av att använda det. Aristoteles påpekade redan i Retoriken (s. 152 i svenska upplagan) att en sak vi alla människor vet är vi i regel väldigt okunniga om när det omformuleras med andra ord. Detsamma kan sägas om algoritmer när det verkar få ersätta ”mjukvara” i allt högre utsträckning. Algoritmer har dokumenterats 1 600 år före Kristus, så fenomenet kan åtminstone inte påstås vara speciellt nytt (om vi nu inte förväntas jämföra med big bang), även om det har ökat i popularitet på senare år.

Google har exempelvis över 40 000 egna patent, de flesta mjukvarupatent, och det bidrar därför sällan till förståelsen när någon väljer att prata om ”Googles algoritm” – i singular dessutom. Algoritm likställs ofta med ett recept, och vi säger ju sällan att vi har lagat ”receptet” till lunch om vi inte först specificerar exakt vilket av alla tusentals recept vi talar om.

Mitt förslag är att inte göra sig själv okunnig genom att byta ut ord vi redan kan och använder till förmån för ord som är både malplacerade och på fel abstraktionsnivå. Det går utmärkt att säga ”Googles sökmotor” i stället för ”Googles algoritm”. Forskare kan fortsätta säga att de använt OLS regression för att analysera datan i stället för att säga att de använt en algoritm. Det senare kan syfta på precis vad som helst, medan det förra är någorlunda väl avgränsat. (Googles sökmotor har för övrigt mängder av algoritmer, de flesta banala, som hur länkarna till andra sidor i sökresultatet ska visas.)

Vill man prata om innehåll som skräddarsys efter individens tidigare beteenden (sökningar eller klick på länkar) är ett lämpligare ord personalisering. Då kan vi skilja mellan vad en individ själv väljer att utesluta från sin informationsmiljö (aktiv personalisering) och vad företag som Google och Facebook exempelvis bestämmer vad du ska se utifrån dina tidigare beteenden (passiv personalisering). Redan här har vi kommit till kärnfrågan (åtminstone en av dem) i stället för att trassla in oss i tekniska detaljer.

Nu vänder jag i stället blicken mot rapporten ifråga.

Kulturella värderingar kodifierade i algoritmer

Rapportförfattarna skriver (s. 9-10) att samhälleliga och kulturella normer, fördomar och liknande är inskrivna i algoritmer. Som stöd för detta argument visar de några tydliga exempel på hur detta kan ske i praktiken:

Algoritmer är kulturellt kodade

Algoritmer är en djupt integrerad del av vårt samhälle. Algoritmer ger också uttryck för dominerande föreställningar och värderingar i vår kultur. Det går att uttrycka i termer av att algoritmer kodifierar dessa föreställningar och värderingar. Vi ser det till exempel i hur en kulturs värderingar om offentlig amning och den kvinnliga kroppen leder till att Facebook censurerar alltför ”explicita” bilder på amning. Det får i sin tur genomslag världen över genom de värderingar som finns inbyggda i Facebooks algoritm, vilken automatiskt letar upp och döljer kvinnlig nakenhet. Det här leder till att även schematiskt ritade bilder på bröst vid till exempel en kampanj för bröstcancer kan bli osynliggjorda.

Det som kan framstå som självklart i den kultur där algoritmen är skapad, kan framstå som underligt, kanske till och med stötande, i en annan kultur. Andra exempel visar på rasistiska värderingar som syns i Googles och Flickrs algoritmer för automatisk taggning av bilder. Google har exempelvis behövt be om ursäkt för att en algoritm för bildbeskrivning taggade två svarta personer med ”gorillas”.

Detta är allvarligt om så vore fallet. Tittar man på referensen till tidningsartikeln säger Google att de också har råkat klassificera människor som hundar. Med rapportförfattarnas fokus på hur kulturella normer påverkar algoritmen borde slutsatsen också vara (a fortiori) att Googles värderingar är att människor är hundar och att dessa värderingar är kodifierade i algoritmen.

Dessbättre är det felaktigt, och det beror på hur klassificering av bilder går till, vilket bygger på perceptuell inlärning och är inte inskrivet i algoritmen över huvud taget.

Det handlar om att man använder en bildklassificerare och låter denna ”lära” från en mängd olika exempelbilder. Ut kommer då en modell från algoritmen som har till uppgift att klassificera nya bilder, som modellen tidigare inte har sett. Därefter släpper man lös klassificeraren (modellen) i det vilda och låter den klassificera bilder på egen hand utifrån mönster den själv hittar. Detta senare steg i mönsterigenkänningen har alltså inte programmerats av någon människa över huvud taget. Annorlunda uttryckt skapar dessa algoritmer saker utöver vad de har programmerats att göra, alltså modellen.

Däremot kan dessa producera andra typer av fel, till exempel när man stoppar in ett skevt urval av bilder i modellen. Detta beskrivs betydligt mer nyanserat i artikeln Artificial Intelligence’s White Guy Problem där forskaren Kate Crawford från Microsoft beskriver problematiken:

This is fundamentally a data problem. Algorithms learn by being fed certain images, often chosen by engineers, and the system builds a model of the world based on those images. If a system is trained on photos of people who are overwhelmingly white, it will have a harder time recognizing nonwhite faces.

Ett annat extremt exempel värt att nämna är Tay. Microsoft utvecklade en chatbot vid namn Tay på Twitter som efter ett par timmar blev nynazist på grund av att ha blivit medvetet matad med nazistiska, sexistiska och rasistiska kommentarer av andra Twitteranvändare. Detta reflekterar inte nödvändigtvis att nazistiska normer hos Microsoft har kodifierats i algoritmen, utan snarare att Tay är ett exempel på artificiell intelligens avsedd att lära sig härma andra människor. Resultatet är en extrem form av behaviorism och social inlärning, en svamp som suger åt sig allt den blir tillsagd och sedan gör likadant.

Vidare i rapporten om algoritmer står det:

Man har också funnit att Google Sök i högre utsträckning visar annonser för välavlönade jobb för manliga profiler än för kvinnliga. Dessa exempel gör det tydligt hur kulturella värderingar, fördomar och etiska förhållningssätt finns inskrivna i algoritmer som i sin tur har möjlighet att påverka andra. Algoritmer och samhälle formar därmed varandra.

Låt oss titta i referensen de hänvisar till. Där står det: ”We cannot determine who caused these findings due to our limited visibility into the ad ecosystem, which includes Google, advertisers, websites, and users.”

Det är med andra ord inte säkert att det är Googles algoritm över huvud taget som är ansvarig för resultatet, utan det kan också vara annonsörerna, webbplatserna eller användarna. Ändå skriver rapportförfattarna att det är inskrivet i algoritmer och att dessa exempel är tydliga. Så referensen de hänvisar till är med andra ord inget stöd till det argument som läggs fram i rapporten om att algoritmer är kulturellt kodade.

Algoritmer, eller rättare sagt modellerna, av ovan nämnda slag gör alltid fel i viss utsträckning, och syftet är oftast att minimera felen snarare än att göra träningen perfekt (så kallad overfitting fungerar sällan utanför det omedelbara sammanhanget).

Kan algoritmer aldrig vara kulturellt kodifierade? Jodå. Men det finns ingen logiskt tvingande nödvändighet i att en algoritm är kulturellt kodifierad. Försök exempelvis hitta den kulturella kodifieringen i kvadratroten. Föreställningen om att eventuella normer är ”inskrivna” i algoritmerna verkar snarare vara något rapportförfattarna har tillskrivit algoritmerna utifrån sina egna kulturella perspektiv.

Hade rapportförfattarna fortsatt på sin analogi som presenterades inledningsvis, att algoritmer är som recept, så hade de också kunna dra den deduktiva slutsatsen att resultatet av algoritmen till stor del också beror på vad man stoppar in i modellen. Ett bakverk är ju som bekant beroende dels av råvarorna och dels av tillagningsproceduren. Enkelt uttryckt gäller principen ”skit in, skit ut” oavsett hur bra tillagningsproceduren i övrigt är, vilket sätter fokus på hur algoritmerna har tränats snarare än hur algoritmerna är skrivna. För skillnaden mellan ett recept och en algoritm är att recept specificerar vilka råvaror du ska tillaga. Algoritmer gör det inte, utan antas kunna lösa generella problem.

Denna distinktion, som rapportförfattarna introducerar men överger, gör mig bekymrad att rapportförfattarna inte riktigt förstår algoritmer eller hur de fungerar, vilket är anmärkningsvärt med tanke på att författarna har till uppgift att lära andra hur algoritmer fungerar och dessutom har skrivit tre rapporter om ämnet för Statens medieråd, Regeringskansliet och Skolverket.

Google kan rimligen anklagas för att skriva en dålig algoritm som exempelvis prioriterar fel innehåll i deras sökmotor, liksom att de kan kritiseras för att träna algoritmen med ett skevt urval av exempel. Detta ska lyftas upp och kritiseras. Men när användare manipulerar innehållet, som modellen ifråga sedan utgår ifrån, kan Google möjligen anklagas för moralisk passivitet om detta innehåll får konsekvenser som Google inte rättar till. Likaså bör vi kritisera Google när de använder träningsdata som är skev i någon bemärkelse. (Givetvis gäller samma argument för andra företag, men Google får tjäna som exempel här.)

Det rapportförfattarna lyfter fram, de etiska aspekterna såsom transparens inför automatiskt beslutsfattande som bygger på proprietära algoritmer, är därför en mycket viktig fråga. I synnerhet om de i vid utsträckning införs allt mer i den offentliga sfären bland myndigheter.

Vidare skriver rapportförfattarna (s. 15):

Big data hanterar, som namnet antyder, stora mängder data, men syftar i sin betydelse snarare på hur man sammanför olika data för att kunna urskilja mönster. Man använder då algoritmer för att utföra så kallade förutsägande (predikativa) analyser genom att förstå hur olika skeenden hänger ihop. Det handlar inte minst om att förutspå konsumentbeteenden och individers preferenser, men andra användningsområden är också tänkbara. Exempelvis kan de ord vi söker på i Google Sök användas för att bedöma allmänhetens intresse för olika politiska frågor, för att förutse valresultat eller hur en influensaepidemi sprider sig. (Google Flu Trends, GFT)

Det kanske inte är ett lyckat exempel då Google Flu Trends är nedlagd sedan flera år tillbaka eftersom det inte fungerade.

Läs mer

Jag har nyligen skrivit ett avsnitt i en kommande rapport om metoder för insamling och analys av data via sociala medier för MSB, och då lade jag fokus (förvisso ytligt) på en del algoritmer för maskininlärning. Jag vet inte när rapporten publiceras, men kan länka in den här senare.

Filosofen John Danaher har skrivit en rad artiklar och intressanta blogginlägg om hoten från ett algokratiskt samhälle, det vill säga ett samhälle där algoritmer snarare än människor står för politiska beslut:

Se också min egen artikel, mer om algoritmer i relation till big data:

Vad som varit populärt på Twitter under ett år

Trender är vad de sociala medierna som Twitter och Facebook själva kallar vad som är populärt just nu. Genom att undersöka dessa är det möjligt att se vad folk skriver och diskuterar.

Eftersom trender är offentliga för alla att se, är de sällan avbilder av vad människor skriver, tycker eller tänker eftersom trenderna också kan påverka vad människor väljer att skriva om. Det som är populärt kan därför bli ännu mer populärt (samma problem finns med opinionsundersökningar).

Här är exempelvis de tio vanligaste trenderna på Twitter under året, med antalet trender inom parentes:

  1. #ffse (1 662)
  2. #aktuellt (1 435)
  3. #lyrikfredag (1 374)
  4. #sthlmpol (1 218)
  5. United (1 042)
  6. Liverpool (1 027)
  7. Chelsea (1 001)
  8. Zlatan (983)
  9. Hovet (939)
  10. #GONINJAS (922)

Exakt hur Twitter avgör vad som är en trend är höjt i dunkel, men trender reflekterar dels vad som händer just nu snarare än vad som händer för dagen, och dels volymen av tweets. Med andra ord, ju fler tweets under en kort period, desto större chans att det blir en trend. Av det skälet valde jag att samla in trender varje timme, dygnet runt, under ett år.

Trender är personliga, men det är också möjligt att ange en plats för var man vill se trender. I det här fallet har jag valt Sverige som plats för att se vad som skrivs i Sverige under ett år.

Nedan ser du några diagram jag tagit fram för massmedier och politiska partier, som bygger på trender från mars 2016 till mars 2017.

Massmedier

Massmedierna har jag plockat fram genom att helt enkelt gå igenom ett stort antal av de mest förekommande trenderna och sedan lagt in dem i diagrammet.

SVT-programmen Aktuellt dominerar tillsammans med Opinion Live, men Expressen Live kommer inte långt efter. Det är de som har trendat flest gånger.

Politiska partier

När det gäller de politiska partierna visar diagrammet nedan hur ofta respektive partis namn har trendat. Räknat på detta sätt är det Moderaterna som har flest trender.

Du hittar hela analysen i form av en R Markdown notebook: Vad som trendat på Twitter under ett år. Data finns även fritt tillgänglig via GitHub.

Floden av upprördhet i sociala medier

Intressant diskussion om ökningen av populism mellan tidigare partiledaren för brittiska Liberaldemokraterna Nick Clegg och socialpsykologen Jonathan Haidt i debattmediet intelligence2.

Det jag framför allt vid lyfta fram är internets betydelse och vad Haidt kallar floden av upprördhet.

Floden av upprördhet

Sociala mediers betydelse tas upp ungefär 47:10 minuter in i klippet. Här är ett citat jag tycker summerar problemet med sociala medier bra, nämligen floden av upprördhet:

If a swastika is drawn on a locker in a junior high school in Illinois, everybody on the left will hear about it. And if an idiot holds up a sign saying “Patriotism is racism”, everyone on the right will hear about it. So, everyone is immersed in a river of outrage. And it’s very hard to see how we turn down the volume. I think the very idea of democracy is severely challenged by new technology.

Jag tror precis detta är nyckeln till selektiv exponering när det kommer till internet. Det är förvisso möjligt att bara ta del av material som bekräftar vad man redan tror. Det polariserar dock inte människor speciellt mycket, utan snarare tvärtom.

Men när en individ exponeras för information som går emot dennes övertygelser, och i synnerhet information som hotar den sociala identiteten, så tenderar polariseringen att öka.

Så när man tar del av information, dag ut och dag in, som går emot ens egna övertygelser, finns det ökad vilja till att mobilisera sig politiskt. Dock tenderar man att överskatta prevalensen av problemet på grund av en konstant repetition. Med andra ord, det är inte sin egen grupps förträfflighet man exponeras för, utan snarare problemen med alla andras. Lägg därutöver till information som ramas in på ett vis som förstärker, och i vissa fall även överdriver, detta problem.

Jag kommer förhoppningsvis utveckla detta i en artikel under hösten.

Läs och se mer

6 tjänster som kartlägger (och visar) din politiska användning av sociala medier

Det har dykt upp en mängd tjänster under den senaste tiden som visar hur vi använder sociala medier för att få politiska nyheter och information, och kanske i synnerhet hur begränsad bild av verkligheten vi får av sociala medier (eller medier i största allmänhet, egentligen).

Här har jag sammanställt några intressanta tjänster jag stött på, många av dem Chrome-tillägg, som visar vår medieanvändning på nätet eller varnar oss när vi surfar in på tvivelaktiga sajter.

I korthet är tjänsterna i tur och ordning: FlipFeed, PolitEcho, Data Selfie, Emergent, Viralgranskarens varningslista och Ekokammaren.

FlipFeed låter dig se hur en annan persons flöde ser ut på Twitter genom att installera ett Chrome-tillägg. Se flödet genom ögonen från en person från den politiska vänster- eller högerkanten. FlipFeed är utvecklat hos MIT.

PolitEcho är ett Chrome-tillägg som försöker förutsäga dina Facebookvänners politiska åsikter utifrån vilka nyhetssidor som dina Facebookvänner har gillat. Notera att detta tillägg enbart fungerar för amerikanska nyhetssidor.

Data Selfie är ytterligare ett Chrome-tillägg som visar vilken information som skickas till Facebook när du surfar på nätet. Tillägget registrerar vad du tittar på, hur länge du tittar på det, vad du gillar, vad du klickar på och allt du skriver på Facebook. Enkelt uttryckt, du blir kartlagd. Tillägget låter dig sedan se all insamlad information. (Datan som tillägget samlar in sparas bara på din egen dator, den skickas inte vidare.)

Emergent visar hur overifierad information som rykten sprids på nätet, i realtid. Det är ett projekt från Columbia University.

Viralgranskarens varningslista är ett Chrome-tillägg som varnar för svenska sajter som är kända för att sprida exempelvis påhittade nyheter. Tillägget bygger på en amerikansk dito som kallas B.S. Detector.

Ekokammaren visar svenska nyhetssidor och intresseorganisationer som finns på Facebook, kategoriserade efter politisk tillhörighet. Det gör det enkelt att jämföra hur diverse Facebooksidor skriver om ett och samma ämne.

Filterbubblor: 3 kommentarer – 3 svar

Ekokammare

I denna text kommer jag redogöra för några kommentarer jag fått kring min artikel om filterbubblor och ekokammare under politiska val. Jag kommer även redogöra kort för hur folk tänker efter att ha använt medier.

Jesper Åström har skrivit några kommentarer på Facebook som jag lovade att besvara i lite längre utförlig form när jag fick tillfälle (alltså nu!).

Jesper arbetar enligt egen utsaga med digital taktik och viral marknadsföring och höll relativt nyligen en underhållande föreläsning på Internetdagarna 2016 om internettroll som jag rekommenderar andra att se, samt omnämns i en läsvärd kolumn av Andrev Walden om rasister på nätet.

Jesper är bland annat kritisk till tre saker i min artikel: (1) att jag är instängd i en filterbubbla och därmed bara kommenterar det jag ser, (2) att jag inte ger något belägg för forskningen och (3) att problemet är hur folk uppfattar minoriteters åsikter som mer vanliga än vad de faktiskt är.

Jag har återgett Jespers kommentarer här, men organiserat om texten i teman. Dessutom gör jag lite sporadiska utvikningar som inte nödvändigtvis är relaterade till Jespers kommentarer.

1. Instängd i en filterbubbla

Först av allt verkar Jesper mena att de enda nyheter jag läst handlar om filterbubblor eftersom jag själv är fast i en filterbubbla, och att jag därmed överskattar hur mycket journalister har skrivit om filterbubblor.

Jesper
Det är lustigt att hans [alltså min!] argumentation bygger på antaganden som skapats av en nyhetsfiltrering där filterbubblor lyfts fram som det huvudsakliga skälet till utfallet i det amerikanska valet. Han kanske skulle applicera sin egen serieteckning på sig själv.

[…] Det jag menar är att det lyfts fram många fler analyser av amerikanska valet än filterbubblorna och falska nyheter. Alltså, att de lyfts fram som ledande i debatten av dig och av vissa andra medier, är en konsekvens av att det är det enda som ni får in i er filterbubbla –> både den som baseras på algoritmer och den som baseras på er institutionella, liksom privata omvärld.

Exempel på sådana förklaringar är att den amerikanska arbetarklassen var trött på etablisemanget, att amerikaner är rasistiska tölpar och att maskinerna var hackade av ryssarna.

Att du beskriver det i din post som att det är filterbubblorna som lyfts fram som huvudorsak till resultatet i det amerikanska valet, anser jag vara ett resultat av filtrering då det i det stora hela har varit en ganska så liten del av eftervalsanalysen. Fast din inledning skriver att texten ämnar beskriva varför effekten av dem varit överdriven.

Dvs. innan vi ens går vidare på innehållet i inlägget, så har du beskrivit din egen bild på frågan som filtrerad/indexerad utifrån ditt eget perspektiv. Alltså, du viktar det du själv uppfattat som den dominerande förklaringen högre än andra förklaringar, som i andra bubblor diskuterats flitigt.

Här har jag två invändningar.

För det första, hur vet Jesper vilka nyheter jag konsumerar och inte konsumerar? Det vore intressant att få beskrivet.

För det andra, självklart har medierna gjort många analyser. Jag påstår inte att filterbubblor lyfts fram som huvudorsaken, att de varit ledande eller dominerande i samhällsdebatten. Att jag medvetet väljer att enbart fokusera på endast filterbubblor beror på det enkla skälet att jag forskar om selektiv exponering.

Jag skrev dessutom detta: ”Efter det amerikanska presidentvalet blev frågan om filterbubblor och ekokammare aktuell som en av förklaringarna till Donald Trumps framgång.”

De påståenden som gjordes om filterbubblor (i medierna) var något överdrivna och gavs större förklaringskraft än vad de faktiskt har (jämfört med forskningen). Därmed var avsikten med min artikel att tona ned och ge en motvikt till de påståenden som gjordes i massmedierna (att moderera påståenden i massmedierna, om man så vill).

Så Jespers invändning att jag bara läser nyheter om filterbubblor och därmed tror att journalister bara har skrivit om filterbubblor verkar mer vara en effekt av vad Jesper tycker och tror. För att veta hur mycket medierna har skrivit om en viss fråga måste man göra en innehållsanalys. Av just det skälet avhåller jag mig från att göra påståenden som att ”i det stora hela har [det] varit en ganska så liten del av eftervalsanalysen.”

2. Var är forskningen?

Jesper
Sen skriver du följande; ”föreställningen om filterbubblors och ekokammares inverkan är tämligen överdriven”, utan att hänvisa till vilken forskning du menar.

Var ska vi börja? En god idé är att inleda med en översiktsartikel som sammanfattat forskningen. En av de senaste översiktsartiklarna skriver exempelvis: ”We conclude that – in spite of the serious concerns voiced – at present, there is no empirical evidence that warrants any strong worries about filter bubbles.” (s. 10). Den artikeln är dock inte speciellt systematisk och lämnar en del annat att önska.

Här är dock några andra artiklar:

  • “the fear of a fragmented society due to selectivity in using the Internet seems to be empirically groundless” (Kobayashi & Ikeda, 2009, s. 929)
  • “worry that the Internet will lead to an increasingly fragmented society appears to have been overstated” (Garrett, 2009a, s. 281)
  • “though many elements of ideological fragmentation are operating as predicted by filter bubble theories, the overall impact of these factors appears to be limited at this time” (Flaxman, Goel, & Rao, 2013, s. 32)
  • “previous work may have overestimated the degree of ideological segregation in social-media usage” (Barberá, Jost, Nagler, Tucker, & Bonneau, 2015, s. 1)
  • ”social media use actually attenuates rather than drives polarization” (Holmes & Sue McNeal, 2016)
  • Och den mest kärnfulla: “wrong” (Garrett, 2013, s. 248)

Och dessutom min egen högst preliminära slutsats från en konferensartikel: ”No support for political ideology and selective exposure mutually reinforcing and becoming more extreme over time.” (I det här fallet handlar det om fem månader.)

Kort sammanfattat: det finns mycket oro, men inte mycket forskningsstöd för idén om filterbubblor.

Notera dock att detta är ett medvetet selektivt urval (förutom översiktsartikeln) som visar att polarisering och medieanvändning inte förekommer. Poängen med detta urval är inte att säga att det endast är på detta vis, utan snarare vara en motvikt till föreställningen att sociala medier mer eller mindre alltid gör att människor bekräftar sina egna föreställningar.

Med andra ord, det är viktigt att påpeka att detta inte betyder att selektiv exponering inte kan ha andra effekter, eller att polarisering eller liknande inte kan förekomma. Polarisering förekommer. Men det gör det oftast under vissa speciella förutsättningar och det är inte helt klart vilka de förutsättningarna är i nuläget. Forskningen kring polarisering och medieanvändning är blandad, vissa studier visar ökad polarisering, andra minskad.

3. Det riktiga problemet, kognitiv dissonans och illusionen av majoritet

Det riktiga problemet

Jesper
Men problemet ÄR INTE utgången i det amerikanska valet, eller falska nyheter eller ens urvalet av information. Problemet ligger i att användare upplever extremer som majoriteter vilket gör att normen för vad som är rimligt i ett samhälle förskjuts. Då får extrema människor luft under vingarna. Om vi därtill lägger en sviktande massmedia som inte är indexerad, men som följer med de trender de tror är majoriteter, så kommer de förstärka den bilden av verkligheten – som egentligen bara finns hos ett fåtal.

Jag instämmer delvis.

Uppfattningen om vilka som är majoriteter och minoriteter är en av mina delstudier i avhandlingen (Selektiv exponering och medieffekter på nätet), och den mer övergripande frågan har mina kollegor nyligen fått pengar till för ett långsiktigt forskningsprojekt (Påverkas vår världsbild av selektiva medieval?).

I brist på opinionsundersökningar använder vi det näst bästa vi människor kan få tag på, vilket ofta är anekdoter från andra, illustrativa exempel, och i allt högre utsträckning yttranden i sociala medier. Detta fenomen går ibland under namnet exemplification theory.

Men om detta verkligen är ett stort problem beror på hur en individs totala medievanor ser ut. Även om det är fallet att alla socialdemokrater som besöker Facebook endast får höra nyheter om hur bra socialdemokrater är, och motsvarande för moderater, kan de ändå få höra motsatsen så fort de går utanför Facebook så att nettoeffekten blir noll. Om människor endast tar del av nyheter via Facebook tror jag vi har ett problem. Men i dagsläget är vi inte där.

Även om vi kan demonstrera upprepade gånger med hög säkerhet att A påverkar B, vet vi ändå inte om effekterna försvinner efter timmar eller dagar, eller om de sitter kvar i flera år. Vi vet inte ens om det finns omständigheter där effekterna upphävs.

Jesper verkar därför beskriva sina farhågor (vilka jag delvis delar), men det är ju något annat än det empiriska underlaget. Jag skulle därför gärna vilja se lite mer stöd för Jespers påståenden, särskilt påståendet att normerna för vad som är rimligt förskjuts, och att massmedier följer trender som de tror är majoriteter (snarare än att massmedierna, som forskningen visar, publicerar nyheter som passar medielogiken). Det är en sak att tro det och en annan sak att visa det.

Det jag har talat om hittills rör exponering. Låt oss därför vända blicken mot människors uppfattningar och tolkningar av information.

Kognitiv dissonans

Jesper
Jag tycker också att det är konstigt att han helt väljer bort att prata om kognitiv dissonans. […] Det jag skriver också är hur detta påverkar vår kognitiva förmåga att ta till oss ”fakta” då vi upplever att vår egen bias är den dominerande. Eller, då våra värderingar skiljer sig från våra betraktelser. https://en.wikipedia.org/wiki/Cognitive_dissonance

Det är ju knappast några nya forskningsområden vilket gör att jag gärna mottar referenser eller länkar till forskning som säger att det inte förhåller sig på det sättet.

Jag har förvisso inte ens påstått att det inte förhåller sig på det viset. Kognitiv dissonans spelar snarare en ganska liten roll, och är endast en liten del av många faktorer (vilket kanske bäst förklaras under paraplybegreppet defense-oriented motivated reasoning).

Kognitiv dissonans är faktiskt den allra mest utforskade teorin i relation till selektiv exponering, historiskt sett. Ta en av de senaste meta-analyserna om just selektiv exponering och kognitiv dissonans som exempel. Den visade en homogen medeleffektstorlek på r = 0,241 viktad på sampelstorlek (kap. 7, studie 2) för experiment från 1960-talet som tidigare inte hittade några större effekter (eftersom själva statistiken för meta-analyser inte var utvecklad då). På ren svenska betyder det att det finns ett svagt stöd för idén om att människor väljer information som stödjer deras uppfattning efter att de fått se dissonant information (så kallad post-decisional cognitive dissonance).

Man kan invända mot att studier som gjordes på 1960-talet inte har någon förklaringskraft för internet i nuläget, men det är snarare teorin som inte har speciellt stor förklaringskraft: ”this area of research is interesting theoretically […] but of limited practical implication. By definition, a theory of postdecisional cognitive dissonance can predict neither behavior nor cognitive processing before a decision, including the decision-making process itself, and so it is of limited utility to people who have a vested interest in the valence of decisions.” (s. 114)

Och om vi tar internetnyheter i beaktande: ”These results refute the cognitive dissonance explanation for selective exposure […]”. En lite snällare tolkning säger dock att forskningen har visat ”mixed evidence, at best”.

Så varför har jag valt bort att prata om kognitiv dissonans när jag pratar om selektiv exponering? För att det inte är speciellt relevant i ljuset av andra teorier. Motivated reasoning ska jag dock skriva mer om senare, och mer utförligt i en bok jag håller på att redigera.

Majoritetsillusionen

Jesper
Och nu kommer vi in på mitt tredje stycke där jag menar att upplevelsen av majoritet inte är det samma som faktisk majoritet. En referens som är bra här är denna – https://www.technologyreview.com/…/the-social-network…/

När det gäller den så kallade majoritetsillusion i sociala nätverk, är det intressant att Jesper väljer just den eftersom jag tänkte skriva om den ett tag men glömt bort det. Det är relevant och bra att han lyfter upp den.

I Tyskland genomfördes ett experiment på detta tema förra året och de fick dock negativt resultat (The sense of the visible others). Andra studier har dock fått positivt resultat. Så hur tolkar man studier som talar för denna idé samtidigt som det finns studier som talar mot? Det är därför vi forskar – resultaten spretar åt olika håll och vi försöker ta reda på varför.

Det är också därför en (1) enda empirisk studie sällan betyder något. Man måste göra många studier om ett fenomen för att därefter kunna dra säkrare slutsatser (studierna ska också vara bra genomförda, men det är underförstått). Titta exempelvis på figur 1 på sidan 4 i denna översiktsartikel som visar det på ett utmärkt vis: Is everything we eat associated with cancer? A systematic cookbook review. Det är detta som är skälet till att man sällan kan blåsa upp en enskild studie, och varför forskning är så långsamt.

Och relaterat till det som jag påpekade tidigare: så fort en opinionsundersökning dyker upp så tenderar människor att anpassa sina övertygelser efter undersökningen ifråga (så länge de inte är defense-oriented). Så man måste återigen ta människors hela mediediet i beaktande, och det går inte att dra slutsatser om hur människor tänker, generellt sett, utifrån isolerade exempel.

Just majoritetsillusionen som Jesper nämner i sin kommentar är däremot ett exempel på när universitet försöker göra sin forskning mer relevant genom att överdriva den. Så här beskrivs studien om majoritetsillusionen i ingressen hos MIT, med min fetmarkering: ”Network scientists have discovered how social networks can create the illusion that something is common when it is actually rare.”

Men det är inga nyheter.

Grundforskningen undersökte det systematiskt redan på 1970-talet, och andra har undersökt fenomen som falsk konsensus, social projektiontystnadsspiralenbase rate fallacy och tidigare nämnda exemplification theory – bara för att nämna några – vilket alla är fenomen som i varierande grad undersökt hur människor tolkar saker som mer vanliga än vad de faktiskt är.

Den så kallade majoritetsillusionen är inget nytt, utan egentligen ett fall av bristande induktivt resonerande. Och det har studerats ända sedan Aristoteles epagoge. (Och nej, jag påstår naturligtvis inte att Aristoteles upptäckt just majoritetsillusionen i sociala nätverk.)

Vi vet exempelvis från meta-analyser att de som tillhör en majoritet underskattar storleken på sin majoritet (medeleffektstorlek r = 0,33), medan de som tillhör en minoritet tenderar att i högre utsträckning överskatta storleken på sin minoritet (medeleffektstorlek r = 0,49).

Effekten av selektiv exponering på polarisering verkar medieras delvis av perception av opinionsklimatet. På vanlig svenska betyder det att uppfattningen av opinionsklimatet kan tänkas ha en delvis indirekt påverkan på sambandet mellan selektiv exponering och polarisering. Vilket berör det som Jesper nämner.

Däremot är det alldeles utmärkt att systemvetare och fysiker undersöker sociala nätverk eftersom de ofta har en matematisk approach (som i artikeln om majoritetsillusion) som kan användas till bland annat maskininlärning. Det kan vi förhoppningsvis få nytta av i framtiden!

Avslutningsvis

Jag hoppas denna genomgång av forskningen var lite mer klargörande och utvecklande. Som brukligt har jag redogjort för en mycket liten del av forskningen i ämnet eftersom jag inte har haft för avsikt (eller tid) att vara uttömmande eller representativ, utan har snarare godtyckligt valt ut olika aspekter.

Anledningen till att jag inte skrev om allt detta tidigare beror på tre saker. För det första var min förra text en motvikt till vad många medier skrev. För det andra håller jag på och planerar ett experiment för att undersöka fenomenet ifråga och tänkte att avvakta tills det är klart. Det är roligare att ha lite data att visa upp. För det tredje: tid.

Men det är en balansgång jag också har reflekterat kring: Bör jag skriva (här på bloggen) om enskilda intressanta studier som inte är representativa för forskningen? Eller bör jag försöka noga överväga forskningen innan jag skriver? Den första metoden är snabb och delvis journalistisk, den andra långsam och mer forskningsanknuten.

Oavsett vad svaret på frågan än blir i framtiden tar jag i nuläget gärna emot specifika frågor och kommentarer i kommentarsfältet nedan och besvarar dem vid tillfälle.