Shadowbanning
Shadowban, shadowbanning, ghostbanning, comment ghosting of range throttling verwijst naar de volledige of gedeeltelijke blokkering van een gebruiker, of diens inhoud, van een online community op een manier, dat de gebruiker niet onmiddellijk weet dat deze is geblokkeerd.
Meestal kan de shadowban alleen worden herkend door de statistieken van de sociale media-activiteit van de volgers te analyseren. Opmerkingen of tweets die op een blog of mediasite zijn geplaatst, zijn bijvoorbeeld niet langer zichtbaar voor anderen die die site vanaf hun computer bezoeken. Daardoor nemen de interacties met de website of het social media account af. Shadowbans kunnen ook worden opgevat als een vorm van censuur, omdat de getroffenen op sociale media de dupe worden.
Het doel van het gedeeltelijk verbergen of verbergen van de bijdragen van een gebruiker voor andere leden van de dienst is ervoor te zorgen dat de problematische of anderszins opvallende gebruiker ontevreden is over de reactie op zijn bijdragen en de site verveeld of gefrustreerd kan verlaten. In tegenstelling tot een volledige ban, wordt aangenomen dat een gedeeltelijke beperking van de interactie met andere gebruikers, die niet direct duidelijk is voor de gebruiker, de ongewenste gebruikers (spammers en trollen) ervan weerhoudt om een nieuw account aan te maken om de ban te omzeilen.
Shadowbanning is echt: zo word je gedempt door sociale media
Elon Musk heeft gelijk: sociale media zouden je moeten vertellen wanneer je in de schaduw bent gesteld.
Tekendocent Jennifer Bloomer gebruikt Instagram al acht jaar lang om kunstwerken met een activismethema te delen en lessen aan te kondigen. Toen ze afgelopen herfst een les probeerde te promoten met de titel ‘Antiracistische kinderen opvoeden door middel van kunst’, stopte haar online megafoon met werken.
Het is niet zo dat haar account is opgeschort. In plaats daarvan merkte ze dat haar likes afnamen en dat het aantal mensen dat haar berichten zag met maar liefst 90 procent daalde, volgens haar Instagram-dashboard.
auteur: Geoffrey A. Fowler
datum: December 27, 2022
website: https://www.washingtonpost.com/technology/2022/12/27/shadowban/
Het lijkt erop dat Bloomer een ‘shadowbanned’ had gekregen, een vorm van online censuur waarbij je nog steeds mag spreken, maar bijna niemand je kan horen. Nog gekmakender is dat niemand je vertelt dat het gebeurt.
“Het voelde alsof ik werd gestraft”, zegt Bloomer, 42, wiens Radici Studios in Berkeley, Californië, moeite had met het aanmelden van studenten zonder ze via Instagram te bereiken. “Is het woord antiracistisch niet oké op Instagram?”
Ze heeft nooit antwoorden gekregen. Evenmin als talloze andere mensen die schaduwverboden hebben ervaren op Instagram, Facebook, TikTok, Twitter, YouTube en andere vormen van sociale media.
Net als Bloomer heb je mogelijk een schaduwverbod gekregen als een van deze bedrijven je berichten problematisch vindt, maar niet genoeg om je te verbannen. Er zijn tekenen, maar zelden bewijs – dat maakt het schimmig. Mogelijk merkt u een plotselinge daling in het aantal likes en reacties, wordt uw Facebook-groep minder weergegeven in de feeds van leden of wordt uw naam niet langer weergegeven in het zoekvak. De praktijk haalde deze maand de krantenkoppen toen Twitter-eigenaar Elon Musk bewijs vrijgaf dat bedoeld was om aan te tonen dat schaduwbanning werd gebruikt om conservatieve opvattingen te onderdrukken.
Twintig jaar na de revolutie op de sociale media is het nu duidelijk dat het modereren van inhoud belangrijk is om mensen veilig te houden en de gesprekken beschaafd te houden. Maar wij, de gebruikers, willen dat onze digitale openbare pleinen moderatietechnieken gebruiken die transparant zijn en ons een eerlijke kans geven om gehoord te worden. Musk’s exposé bevat misschien wel uitgekozen voorbeelden om conservatieven als slachtoffers te werpen, maar in dit opzicht heeft hij gelijk: bedrijven moeten ons precies vertellen wanneer en waarom ze onze megafoons onderdrukken, en ons de middelen geven om in beroep te gaan tegen de beslissing.
De vraag is: hoe doe je dat in een tijdperk waarin onzichtbare algoritmen nu beslissen welke stemmen moeten worden versterkt en welke moeten worden verminderd?
Eerst moeten we het erover eens zijn dat schaduwbanning bestaat. Zelfs slachtoffers zijn vervuld van twijfel aan zichzelf die grenst aan paranoia: hoe kun je weten of een bericht niet wordt gedeeld omdat het in de schaduw is gesteld of omdat het niet erg goed is? Toen Black Lives Matters-activisten TikTok beschuldigden van schaduwbanning tijdens de George Floyd-protesten, zei TikTok dat het een fout was. Nog in 2020 zei het hoofd van Instagram, Adam Mosseri, dat schaduwbanning “niets” was op zijn sociale netwerk, hoewel hij een historische definitie leek te gebruiken van het selectief kiezen van accounts om te dempen.
Schaduwbanning is echt. Hoewel de term misschien onnauwkeurig is en soms wordt misbruikt, maken de meeste sociale-mediabedrijven nu gebruik van moderatietechnieken die de megafoons van mensen beperken zonder hen dit te vertellen, inclusief het onderdrukken van wat bedrijven ‘borderline’-inhoud noemen.
En ook al is het een populair Republikeins gespreksonderwerp, het heeft een veel bredere impact. Uit een recent onderzoek van het Center for Democracy and Technology (CDT) bleek dat bijna 1 op de 10 Amerikanen op sociale media vermoedt dat ze een schaduwverbod hebben gekregen. Toen ik ernaar vroeg op Instagram, hoorde ik van mensen wier voornaamste vergrijp leek te zijn om aan de rand van de samenleving te leven of te werken: zwarte makers, seksuele voorlichters, dikke activisten en drag-artiesten. “Er bestaat een dreigende dreiging om onzichtbaar te zijn”, zegt Brooke Erin Duffy, een professor aan de Cornell University die sociale media bestudeert.
Ook socialemediabedrijven beginnen het te onderkennen, al gebruiken ze liever termen als ‘deamplificatie’ en ‘reduceren van bereik’. Op dec. Op 7 oktober onthulde Instagram een nieuwe functie genaamd Accountstatus, waarmee professionele gebruikers weten wanneer hun inhoud als “niet in aanmerking komt” wordt beschouwd om aan andere gebruikers te worden aanbevolen en in beroep te gaan. “We willen dat mensen begrijpen welk bereik hun inhoud krijgt”, zegt Claire Lerner, woordvoerster van Facebook en Instagram-moeder Meta.
Het is een zeer goede en zeer late stap in de goede richting. Het ontrafelen van wat er met Bloomer, de kunstleraar, is gebeurd, heeft me geholpen te zien hoe we een productiever begrip van schaduwbanning kunnen krijgen – en wijst ook op enkele manieren waarop we technologiebedrijven verantwoordelijk kunnen houden voor de manier waarop ze het doen.
Wat is schaduwbanning?
Als je het Instagram-profiel van Bloomer zoekt, vol met schilderijen van mensen en progressieve doelen, is er eigenlijk niets verwijderd. Geen van haar berichten werd gemarkeerd wegens schending van de ‘communityrichtlijnen’ van Instagram, waarin wordt beschreven hoe accounts worden opgeschort. Ze kon nog steeds vrijuit spreken.
Dat komt omdat er een belangrijk verschil is tussen de ervaring van Bloomer en hoe we doorgaans over censuur denken. De meest voorkomende vorm van contentmoderatie is de bevoegdheid om te verwijderen. We begrijpen allemaal dat grote socialemediabedrijven inhoud verwijderen of mensen verbieden, zoals @realDonaldTrump.
Slachtoffers van schaduwverboden ervaren een soort gematigdheid die we stille reductie zouden kunnen noemen, een term die is bedacht door Tarleton Gillespie, auteur van het boek ‘Custodians of the Internet’.
“Als mensen ‘schaduwbanning’, ‘censuur’ of ‘aan hendels trekken’ zeggen, proberen ze onder woorden te brengen dat iets niet goed voelt, maar ze kunnen van buitenaf niet zien wat het is, en hebben het gevoel dat ze weinig macht hebben om dat te doen. doe er iets aan”, zegt Gillespie. “Daarom is het taalgebruik onnauwkeurig en boos, maar niet verkeerd.”
Reductie vindt plaats in het minst begrepen deel van sociale media: aanbevelingen. Dit zijn de algoritmen die de eindeloze zee van foto’s, video’s en reacties doorzoeken om te bepalen wat er in onze feeds verschijnt. De gepersonaliseerde ‘For You’-sectie van TikTok doet het zo goed om de juiste dingen te kiezen, dat de wereld er verslaafd aan is.
Reductie vindt plaats wanneer een app zijn duim op de algoritmische schaal legt om te zeggen dat bepaalde onderwerpen of mensen minder gezien moeten worden.
“De grootste reden dat iemands bereik afneemt, is hoe geïnteresseerd anderen zijn in wat ze posten – en naarmate meer mensen meer inhoud posten, wordt de concurrentie groter als het gaat om wat anderen interessant vinden. We verlagen ook berichten als we voorspellen dat ze waarschijnlijk in strijd zijn met ons beleid”, zegt Lerner van Meta.
De vermindering begon als een poging om spam tegen te gaan, maar het gebruik ervan heeft zich uitgebreid naar inhoud die de regels niet overtreedt, maar er wel dicht bij in de buurt komt, van wondermiddelen en clickbait tot valse beweringen over het nieuws van 1 september. 11 en gevaarlijke stunts. Facebook-documenten van klokkenluider Frances Haugen onthulden een complex systeem voor het rangschikken van inhoud, waarbij algoritmen berichten beoordelen op basis van factoren zoals het voorspelde risico voor de maatschappelijke gezondheid of het potentieel ervan om verkeerde informatie te zijn, en deze vervolgens in de Facebook-feed degraderen.
Musk’s ‘Twitter Files’ onthullen enkele nieuwe details over de reductiesystemen van Twitter, die het intern ‘zichtbaarheidsfiltering’ noemde. Musk omschrijft dit als een inherent partijdige daad – een poging om rechtse tweets en ongunstige accounts zoals @libsoftiktok aan te pakken. Maar het is ook een bewijs van een sociaal netwerk dat worstelt met de vraag waar de grens moet worden getrokken voor wat niet moet worden gepromoot over belangrijke onderwerpen, waaronder intolerantie voor LHBTQ-mensen.
Meta en Google’s YouTube hebben hun inspanningen om de verspreiding van problematische inhoud tegen te gaan het duidelijkst verwoord, waarbij ze dit allebei ‘borderline’ noemen. Meta-CEO Mark Zuckerberg heeft betoogd dat het belangrijk is om het bereik van deze borderline-inhoud te verkleinen, omdat de inherente extreme aard ervan anders de kans vergroot dat het viraal gaat.
Jij, Zuckerberg en ik zijn het misschien niet eens over wat als grens moet gelden, maar als particuliere bedrijven kunnen socialemediabedrijven hun eigen redactionele oordeel vellen.
Het probleem is: hoe maken ze hun keuzes zo zichtbaar dat we ze kunnen vertrouwen?