
Σοβαρές ανησυχίες εκφράζουν οργανώσεις προστασίας γυναικών και επιζωσών κακοποίησης, με αφορμή τις πληροφορίες ότι η Meta εξετάζει την ενσωμάτωση τεχνολογίας αναγνώρισης προσώπου στα «έξυπνα» γυαλιά της.
Ειδικοί προειδοποιούν ότι μια τέτοια λειτουργία, η οποία θα αξιοποιεί εργαλεία τεχνητής νοημοσύνης, θα μπορούσε να επιτρέψει την ταυτοποίηση ατόμων σε πραγματικό χρόνο και την άντληση πληροφοριών για την ταυτότητά τους. Σύμφωνα με τις οργανώσεις, το ενδεχόμενο αυτό δημιουργεί αυξημένους κινδύνους παρενόχλησης, παρακολούθησης και κακοποίησης, ιδιαίτερα για γυναίκες και κορίτσια.
Όπως επισημαίνεται, η δυνατότητα άμεσης αναγνώρισης προσώπου σε δημόσιους χώρους θα μπορούσε να διευκολύνει κακοποιητικές συμπεριφορές, προσφέροντας σε επίδοξους δράστες ένα ακόμη τεχνολογικό εργαλείο εντοπισμού και ελέγχου.
Οι ανησυχίες εντάθηκαν μετά από δημοσίευμα των New York Times, το οποίο ανέφερε ότι η Meta εξετάζει την προσθήκη σχετικής τεχνολογίας ακόμη και εντός του έτους. Πηγές που επικαλείται το δημοσίευμα σημειώνουν ότι το σύστημα δεν θα επιτρέπει ανεξέλεγκτη αναζήτηση οποιουδήποτε προσώπου, χωρίς ωστόσο να έχουν αποσαφηνιστεί πλήρως οι τεχνικές και λειτουργικές παράμετροι.
Σύμφωνα με τις ίδιες πληροφορίες, το υπό ανάπτυξη εργαλείο ενδέχεται να βασίζεται σε ένα είδος «ετικέτας ταυτότητας», αναγνωρίζοντας πρόσωπα που συνδέονται με τον χρήστη μέσω των πλατφορμών της Meta ή διαθέτουν δημόσια προφίλ.
Οργανώσεις κατά της ενδοοικογενειακής βίας τονίζουν ότι η τεχνολογία αυτή ενέχει «άμεσους και σοβαρούς κινδύνους» για επιζώσες κακοποίησης. Η παρακολούθηση, όπως αναφέρουν, αποτελεί ήδη μία από τις πιο συχνές τακτικές ελέγχου, με τις «έξυπνες» συσκευές να χρησιμοποιούνται ολοένα και περισσότερο σε περιστατικά τεχνολογικά διευκολυνόμενης κακοποίησης.
Εκπρόσωποι οργανώσεων επισημαίνουν ότι οι τεχνολογικές εταιρείες οφείλουν να ενσωματώνουν ζητήματα ασφάλειας ήδη από το στάδιο σχεδιασμού νέων προϊόντων, προειδοποιώντας ότι η παράβλεψη των πιθανών καταχρήσεων μπορεί να έχει σοβαρές κοινωνικές συνέπειες.
Από την πλευρά της, η Meta φέρεται να δηλώνει ότι η λειτουργία βρίσκεται ακόμη υπό αξιολόγηση, υπογραμμίζοντας πως θα ακολουθηθεί προσεκτική προσέγγιση πριν από οποιαδήποτε εφαρμογή.



