Børn og unge, der deler blodige billeder og tips og tricks til at selvskade, er ikke et nyt fænomen på sociale medier.
DR-dokumentaren ”Døde pigers dagbog” viste fx i 2020, hvordan Instagram forbandt selvskadende unge, som deler farlige råd og opfordringer til selvskade. Netværk der, ifølge eksperter, kan inspirere og forstærke selvskadeadfærd.
Meta, som bl.a. står bag Instagram, har løbende forsvaret sig med, at de er blevet meget bedre til at fjerne skadeligt indhold og hævder, at de bruger kunstig intelligens til automatisk at fjerne selvskadeindhold.
Men det er ikke tilfældet, kan Digitalt Ansvar nu afsløre i en ny undersøgelse.
Instagram har fjernet 0% af selvskadeindholdet i undersøgelsen
For at undersøge Instagrams påståede automatiske moderation af selvskadeindhold oprettede Digitalt Ansvar et falsk selvskadenetværk på Instagram. Med ti private profiler, med aldre på både under og over 18 år, skabte Digitalt Ansvar et troværdigt netværk af profiler med interesse for selvskade.
I en periode på fire uger delte de ti profiler tilsammen 85 opslag med selvskadeindhold. Instagram fjernede undervældende 0 procent af opslagene. Det er meget foruroligende, siger direktør i Digitalt Ansvar, Ask Hesby Holm.
Resultatet står i skærende kontrast til Instagrams udmelding om, at de proaktivt fjerner selvskadeindhold ved hjælp af kunstig intelligens. At de ikke har fjernet et eneste stykke indhold i vores undersøgelse, understreger en gang for alle, at børn og unges sikkerhed ikke står højt på Metas prioriteringsliste, siger han.
Selv ikke åbenlyst selvskaderelateret indhold fra undersøgelsen, der tydeligt viser blod, barberblade eller opfordring til selvskade, blev fjernet.
Heller ikke de fem profiler under 18 år blev underlagt nogen former for moderation eller begrænsning, og ingen af de ti profiler modtog advarsler om, at indholdet brød med Instagrams regler, ligesom de heller ikke modtog nogen former for vejledning eller opfordring til at søge hjælp i forbindelse med delingen af materialet.
-
-
Så nemt var det at identificere selvskadeindhold med kunstig intelligens
Digitalt Ansvar har også undersøgt, hvorvidt kunstig intelligens var i stand til at identificere selvskadematerialet fra undersøgelsen.
Digitalt Ansvar kunne via kunstig intelligens identificere 38 procent af det samlede selvskadeindhold og hele 88 procent af det indhold, som kategoriseres som det groveste.
Det understreger, at Instagram godt kan identificere og fjerne indholdet, hvis de ville, siger direktør i Digitalt Ansvar, Ask Hesby Holm.
Instagram viser vej til selvskadenetværk
Ikke nok med at Instagram ikke fjerner voldsomt selvskadeindhold på deres platform, så kan deres algoritme også være med til at udbrede selvskadenetværk - også til børn.
Instagrams algoritme anbefalede nemlig de 13-årige profiler i undersøgelsen at følge alle i det falske selvskadenetværk, hvis de fulgte bare én profil fra netværket.
Det betyder, at hvis en 13-årig, der, eksempelvis ved et tilfælde, følger én profil, hvor der deles selvskade, vil få hjælp af Instagram til at finde andre profiler, der deler selvskade. Instagram spiller dermed potentielt en stor rolle i at forme og udbrede netværk, hvor der deles selvskadeindhold.
Instagram bryder med EU-regler
Udover at Instagram bryder med egne fællesskabsregler og retningslinjer ved ikke at fjerne selvskadeindholdet i Digitalt Ansvars undersøgelse, fraviger de også fra deres forpligtelser i EU’s forordning om digitale tjenester (DSA), vurderer direktør i Digitalt Ansvar.
Instagram gør ikke nok for at begrænse selvskadeindhold, som udgør en tydelig risiko for brugernes fysiske og mentale helbred samt mindreåriges sikkerhed, og det er i strid med EU-reglerne for store sociale medier som Instagram, siger Ask Hesby Holm.
Overblik over resultater
- Instagram fjernede ikke et eneste af de 85 selvskadeopslag fra undersøgelsen. Selv ikke åbenlyst selvskadeindhold delt af både 13-årige og 18+-årige profiler, der tydeligt viser blod, barberblade eller opfordring til selvskade.
- Ingen af de ti profiler modtog advarsler om, at indholdet brød med Instagrams retningslinjer. Profilerne modtog heller ikke nogen former for vejledning eller opfodring til at søge hjælp i forbindelse med delingen af materialet.
- Digitalt Ansvar kunne automatisk ved at anvende kunstig intelligens identificere 38 procent af selvskadebillederne og 88 procent af dem, som kategoriseres som de værste. Det peger på, at Instagram taler usandt, når de påstår at benytte teknologi, som kan minimere problemet med selvskadeindhold på deres platform.
- Instagrams anbefalingsalgoritme anbefalede 13-årige brugere at blive venner med alle i Digitalt Ansvar falske selvskadenetværk, hvis den 13-årige bruger blev venner med bare én bruger fra netværket. Anbefalingsalgoritmen er dermed medvirkende til at forme og udbrede netværk, hvor der deles selvskademateriale.
Digitalt Ansvar inviterer til oplæg og debat om Instagrams selvskadebedrag
Vil du høre mere om resultaterne?
Digitalt Ansvar inviterer til oplæg, hvor vi præsenterer resultaterne af vores undersøgelse efterfulgt af en paneldebat om de menneskelige konsekvenser ved manglende moderation af selvskadeindhold på sociale medier samt sociale mediers ansvar.
Arrangementet foregår d. 28. november kl. 16-17:30 i Klub, Linnésgade 25, 1321 København K.
Læs mere her.