
Μάρτυρες δημοσίου συμφέροντος μιλούν στο BBC για εσωτερικές έρευνες και αποφάσεις που – όπως υποστηρίζουν – έθεσαν σε δεύτερη μοίρα την ασφάλεια των χρηστών, προκειμένου να αυξηθεί η εμπλοκή στις πλατφόρμες κοινωνικής δικτύωσης
Σοβαρές καταγγελίες για τον τρόπο λειτουργίας των αλγορίθμων και των μηχανισμών διαχείρισης περιεχομένου στα μεγάλα κοινωνικά δίκτυα έφεραν στο φως πληροφοριοδότες και πρώην εργαζόμενοι των εταιρειών Meta Platforms και TikTok, μιλώντας στο βρετανικό μέσο BBC. Σύμφωνα με τις αποκαλύψεις που παρουσιάστηκαν στο ντοκιμαντέρ «Inside the Rage Machine», οι δύο εταιρείες φέρονται να επέτρεψαν συνειδητά την εμφάνιση περισσότερου «οριακά επιβλαβούς» περιεχομένου στις ροές των χρηστών, αφού εσωτερικές έρευνες έδειξαν ότι το περιεχόμενο που προκαλεί αγανάκτηση και οργή αυξάνει σημαντικά την αλληλεπίδραση. Περισσότεροι από δώδεκα πληροφοριοδότες και άτομα εκ των έσω περιέγραψαν μια κουλτούρα στην οποία, όπως υποστηρίζουν, οι εταιρείες ήταν διατεθειμένες να πάρουν ρίσκο με την ασφάλεια των χρηστών σε ζητήματα όπως η βία, ο σεξουαλικός εκβιασμός και το τρομοκρατικό περιεχόμενο, προκειμένου να διατηρήσουν ή να αυξήσουν τον χρόνο που οι χρήστες περνούν στις πλατφόρμες.
Ένας μηχανικός της Meta, η οποία διαχειρίζεται τις πλατφόρμες Facebook και Instagram, ανέφερε ότι ανώτερα στελέχη τού ζήτησαν να επιτρέψει περισσότερο «οριακά επιβλαβές» περιεχόμενο στις ροές των χρηστών. Στην κατηγορία αυτή περιλαμβάνονται αναρτήσεις με μισογυνικό λόγο, θεωρίες συνωμοσίας και άλλο περιεχόμενο που μπορεί να θεωρείται επιβλαβές, αλλά δεν παραβιάζει απαραίτητα τη νομοθεσία. Όπως δήλωσε, η οδηγία αυτή συνδεόταν άμεσα με την προσπάθεια της εταιρείας να ανταγωνιστεί το TikTok. «Μας είπαν περίπου ότι αυτό συμβαίνει επειδή η τιμή της μετοχής πέφτει», υποστήριξε, περιγράφοντας το κλίμα πίεσης που επικρατούσε εντός της εταιρείας.
Ανάλογες αποκαλύψεις έγιναν και για το TikTok. Ένας εργαζόμενος της εταιρείας παρέδωσε στο BBC πρόσβαση σε εσωτερικά συστήματα που καταγράφουν καταγγελίες χρηστών, υποστηρίζοντας ότι σε αρκετές περιπτώσεις δινόταν προτεραιότητα σε υποθέσεις που αφορούσαν πολιτικούς αντί για σοβαρές αναφορές επιβλαβούς περιεχομένου που επηρέαζε ανήλικους χρήστες. Σύμφωνα με τον ίδιο, τέτοιες αποφάσεις λαμβάνονταν για να διατηρηθούν «ισχυρές σχέσεις» με πολιτικούς και κυβερνήσεις, ώστε να αποφευχθούν πιθανές ρυθμιστικές παρεμβάσεις ή απαγορεύσεις που θα μπορούσαν να επηρεάσουν τη λειτουργία της πλατφόρμας.
Οι πληροφοριοδότες περιέγραψαν επίσης πώς αντέδρασε ο κλάδος των κοινωνικών δικτύων μετά τη ραγδαία άνοδο του TikTok, του οποίου ο ιδιαίτερα αποτελεσματικός αλγόριθμος προτάσεων σύντομων βίντεο άλλαξε δραστικά τον τρόπο λειτουργίας των ψηφιακών πλατφορμών. Η Meta προσπάθησε να απαντήσει στον ανταγωνισμό με τη δημιουργία της λειτουργίας Instagram Reels, η οποία λανσαρίστηκε το 2020. Ο ανώτερος ερευνητής της Meta, Matt Motyl, δήλωσε ότι η νέα αυτή λειτουργία ξεκίνησε χωρίς επαρκείς μηχανισμούς προστασίας χρηστών. Εσωτερική έρευνα της εταιρείας που κοινοποιήθηκε στο BBC έδειξε ότι στα σχόλια των Reels καταγράφονταν σημαντικά περισσότερα περιστατικά εκφοβισμού, παρενόχλησης, ρητορικής μίσους και βίας σε σύγκριση με άλλα τμήματα του Instagram. Πρώην ανώτερο στέλεχος της Meta ανέφερε ότι η εταιρεία επένδυσε σε περίπου 700 εργαζόμενους για την ανάπτυξη των Reels, την ίδια στιγμή που οι ομάδες ασφάλειας δεν έλαβαν έγκριση ούτε για δύο ειδικούς προστασίας παιδιών ούτε για δέκα επιπλέον εργαζόμενους που θα ασχολούνταν με την ακεραιότητα των εκλογικών διαδικασιών.
Ο Motyl παρέδωσε στο BBC δεκάδες έγγραφα εσωτερικών ερευνών υψηλού επιπέδου της εταιρείας. Σύμφωνα με τον ίδιο, τα έγγραφα αυτά δείχνουν πολλούς τρόπους με τους οποίους οι χρήστες μπορεί να βλάπτονται από τον τρόπο λειτουργίας των πλατφορμών. Σε μία από τις εσωτερικές μελέτες αναφέρεται ότι ο αλγόριθμος του Facebook προσφέρει στους δημιουργούς περιεχομένου «ένα μονοπάτι που μεγιστοποιεί τα κέρδη εις βάρος της ευημερίας του κοινού τους». Η ίδια μελέτη σημειώνει επίσης ότι «τα οικονομικά κίνητρα που δημιουργούν οι αλγόριθμοί μας δεν φαίνεται να ευθυγραμμίζονται με την αποστολή μας να φέρουμε τον κόσμο πιο κοντά». Σε άλλο σημείο αναφέρεται ότι το Facebook μπορεί «να επιλέξει να παραμείνει αδρανές και να συνεχίσει να τροφοδοτεί τους χρήστες με πρόχειρο περιεχόμενο», αλλά προειδοποιεί ότι μια τέτοια στρατηγική «λειτουργεί μόνο για ένα χρονικό διάστημα».
Ο μηχανικός μηχανικής μάθησης Ruofan Ding, ο οποίος εργάστηκε στον αλγόριθμο προτάσεων του TikTok από το 2020 έως το 2024, δήλωσε ότι τέτοια συστήματα λειτουργούν ουσιαστικά σαν ένα «μαύρο κουτί». Όπως εξήγησε, ακόμη και οι ίδιοι οι μηχανικοί έχουν περιορισμένη δυνατότητα ελέγχου της λειτουργίας των αλγορίθμων βαθιάς μάθησης. «Δεν έχουμε πραγματικό έλεγχο στον ίδιο τον αλγόριθμο βαθιάς μάθησης», ανέφερε χαρακτηριστικά. Σύμφωνα με τον ίδιο, για τους μηχανικούς το περιεχόμενο αντιμετωπίζεται κυρίως ως δεδομένα και όχι ως πραγματικές δημοσιεύσεις. «Για εμάς, όλο το περιεχόμενο είναι απλώς ένας αριθμός, ένα αναγνωριστικό», δήλωσε. Όπως εξήγησε, οι μηχανικοί βασίζονται στις ομάδες ασφάλειας περιεχομένου για να αφαιρούν επιβλαβείς δημοσιεύσεις πριν αυτές προωθηθούν από τον αλγόριθμο. Ωστόσο, καθώς το TikTok προσπαθούσε να βελτιώνει τον αλγόριθμό του σχεδόν κάθε εβδομάδα για να αυξήσει το μερίδιο αγοράς, άρχισε να εμφανίζεται όλο και περισσότερο «οριακό» περιεχόμενο στις ροές των χρηστών.
Έφηβοι που μίλησαν στο BBC ανέφεραν ότι τα εργαλεία που επιτρέπουν στους χρήστες να δηλώνουν πως δεν θέλουν να βλέπουν συγκεκριμένο περιεχόμενο δεν λειτουργούν αποτελεσματικά και ότι συνεχίζουν να εμφανίζονται στις ροές τους βίαια ή μισαλλόδοξα βίντεο. Σε μια ιδιαίτερα ανησυχητική περίπτωση, ένας νεαρός που παρουσιάζεται με το όνομα Κάλουμ, σήμερα 19 ετών, δήλωσε ότι «ριζοσπαστικοποιήθηκε από τον αλγόριθμο» από την ηλικία των 14 ετών. Σύμφωνα με τον ίδιο, ο αλγόριθμος τού πρότεινε διαρκώς περιεχόμενο που τον εξόργιζε και σταδιακά τον οδήγησε να υιοθετήσει ρατσιστικές και μισογυνικές απόψεις. «Τα βίντεο με ενεργοποιούσαν, αλλά όχι με καλό τρόπο. Με έκαναν απλώς πολύ θυμωμένο», είπε.
Ειδικοί της αντιτρομοκρατικής αστυνομίας στο Ηνωμένο Βασίλειο ανέφεραν ότι τους τελευταίους μήνες παρατηρούν «κανονικοποίηση» αντισημιτικών, ρατσιστικών και ακροδεξιών δημοσιεύσεων στα κοινωνικά δίκτυα. Σύμφωνα με έναν αξιωματικό, οι χρήστες φαίνεται να έχουν γίνει πιο απευαισθητοποιημένοι απέναντι στη βία στον πραγματικό κόσμο και εκφράζουν πλέον πιο ανοιχτά ακραίες απόψεις.
Ένας εργαζόμενος στην ομάδα εμπιστοσύνης και ασφάλειας του TikTok, τον οποίο το BBC αποκαλεί «Νικ», δήλωσε ότι ο όγκος των υποθέσεων που έπρεπε να εξεταστούν ήταν τόσο μεγάλος ώστε ήταν δύσκολο να διασφαλιστεί η ασφάλεια των χρηστών, ιδιαίτερα των παιδιών και των εφήβων. Κατά την εκτίμησή του, οι περικοπές προσωπικού και η αντικατάσταση ορισμένων θέσεων με συστήματα τεχνητής νοημοσύνης έχουν περιορίσει σημαντικά την ικανότητα της εταιρείας να αντιμετωπίζει επιβλαβές περιεχόμενο. Υλικό που συνδέεται με «τρομοκρατία, σεξουαλική βία, σωματική βία, κακοποίηση και διακίνηση ανθρώπων» φαίνεται να αυξάνεται, ενώ η πραγματικότητα του τι προτείνει η εφαρμογή και των ενεργειών που λαμβάνονται εναντίον επιβλαβούς περιεχομένου είναι «πολύ διαφορετική από όσα λένε δημόσια οι εταιρείες». Ο Νικ έδειξε επίσης στοιχεία ότι ορισμένες σχετικά ασήμαντες υποθέσεις που αφορούσαν πολιτικούς λάμβαναν μεγαλύτερη προτεραιότητα από περιπτώσεις που αφορούσαν ζημιά σε εφήβους. Σε ένα παράδειγμα, μια υπόθεση όπου ένας πολιτικός είχε κοροϊδευτεί συγκρινόμενος με κοτόπουλο εξετάστηκε πριν από καταγγελία ενός 17χρονου θύματος διαδικτυακού εκφοβισμού στη Γαλλία και μιας 16χρονης στο Ιράκ που κατήγγειλε ότι στην εφαρμογή κυκλοφορούσαν σεξουαλικοποιημένες εικόνες που υποτίθεται ότι την απεικόνιζαν.
Η συμβουλή του προς τους γονείς με παιδιά που χρησιμοποιούν το TikTok ήταν ξεκάθαρη: «Διαγράψτε το και κρατήστε τα όσο πιο μακριά γίνεται από την εφαρμογή για όσο περισσότερο γίνεται». Το TikTok απάντησε ότι απορρίπτει την ιδέα ότι το πολιτικό περιεχόμενο έχει προτεραιότητα έναντι της ασφάλειας των νέων και δήλωσε ότι η κατηγορία «παρουσιάζει λανθασμένα τον τρόπο λειτουργίας των συστημάτων ελέγχου περιεχομένου». Τόνισε επίσης ότι οι λογαριασμοί εφήβων διαθέτουν περισσότερες από 50 προεπιλεγμένες λειτουργίες ασφάλειας και ότι η εταιρεία επενδύει σε τεχνολογία που εμποδίζει το επιβλαβές περιεχόμενο να εμφανίζεται στους χρήστες.
Παράλληλα, πρώην στελέχη της Meta δήλωσαν ότι η εταιρεία επιτάχυνε την ανάπτυξη του Instagram Reels για να ανταγωνιστεί το TikTok, ακόμη κι αν αυτό σήμαινε λιγότερη προσοχή στην ασφάλεια των χρηστών. Ο Brandon Silverman, δημιουργός του εργαλείου παρακολούθησης κοινωνικών δικτύων CrowdTangle, δήλωσε ότι ο διευθύνων σύμβουλος της Meta Mark Zuckerberg ήταν «πολύ παρανοϊκός» σχετικά με τον ανταγωνισμό. «Όταν νιώθει ότι υπάρχει ανταγωνιστική απειλή, δεν υπάρχει ποσό χρημάτων που να θεωρείται υπερβολικό», είπε. Σύμφωνα με τον ίδιο, ενώ οι ομάδες ασφάλειας δυσκολεύονταν να πάρουν έγκριση για λίγες προσλήψεις, άλλες ομάδες έπαιρναν εκατοντάδες εργαζόμενους για την ανάπτυξη του Reels. Ένας πρώην μηχανικός της Meta είπε ότι, καθώς η εταιρεία προσπαθούσε να ανταγωνιστεί το TikTok, επέτρεψε περισσότερο οριακά επιβλαβές περιεχόμενο, υποστηρίζοντας ότι «χάνατε από το TikTok και επομένως η τιμή της μετοχής έπεφτε. Οι άνθρωποι άρχισαν να γίνονται παρανοϊκοί και αντιδραστικοί και έλεγαν: ας κάνουμε ό,τι μπορούμε για να προλάβουμε».
Εσωτερικά έγγραφα της Meta που κοινοποιήθηκαν στο BBC δείχνουν ότι η εταιρεία γνώριζε πως οι αλγόριθμοί της προωθούσαν περιεχόμενο που προκαλούσε οργή και θυμό. «Δεδομένης της δυσανάλογης αλληλεπίδρασης, οι αλγόριθμοί μας υποθέτουν ότι οι χρήστες συμπαθούν αυτό το περιεχόμενο και θέλουν περισσότερο», αναφέρει μια μελέτη. Εκπρόσωπος της Meta αρνήθηκε τις κατηγορίες των πληροφοριοδοτών και δήλωσε ότι η εταιρεία έχει αυστηρές πολιτικές προστασίας χρηστών και έχει επενδύσει σημαντικά στην ασφάλεια και την προστασία την τελευταία δεκαετία.



