Βρετανία: ΑΙ εικόνες σεξουαλικής κακοποίησης παιδιών κατακλύζουν το διαδίκτυο

Διαβάζεται σε 3'
Χάκερ
Χάκερ ISTOCK

«Καμπανάκι» από το Ίδρυμα Παρακολούθησης του Διαδικτύου για την αύξηση των ΑΙ εικόνων που παρουσιάζουν σκηνές σεξουαλικής κακοποίησης παιδιών και διακινούνται σε ιστοσελίδες προσβάσιμες σε όλους.

Συναγερμός έχει σημάνει στην Βρετανία για την αύξηση των εικόνων ΑΙ που διακινούνται στο διαδίκτυο και απεικονίζουν σκηνές σεξουαλικής κακοποίησης παιδιών.

Το Ίδρυμα Παρακολούθησης του Διαδικτύου (Internet Watch Foundation, IWF) ανέφερε ότι η ποσότητα τέτοιου είδους περιεχομένου που δημιουργήθηκε μέσω τεχνητής νοημοσύνης και εντοπίστηκε στο διαδίκτυο τους τελευταίους έξι μήνες είχε ήδη ξεπεράσει το σύνολο του προηγούμενου έτους.

Ο παγκόσμιος οργανισμός, που διαχειρίζεται και την γραμμή καταγγελιών στο Ηνωμένο Βασίλειο, δήλωσε ότι σχεδόν όλο το περιεχόμενο βρέθηκε σε δημόσια προσβάσιμα μέρη του διαδικτύου και όχι στο dark web.

Ο διαχωρισμός μεταξύ αληθινών και τεχνητών εικόνων γίνεται όλο και πιο δύσκολος

Ο προσωρινός διευθύνων σύμβουλος του IWF, Derek Ray-Hill, δήλωσε ότι το επίπεδο πολυπλοκότητας στις εικόνες υποδεικνύει ότι τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιήθηκαν είχαν εκπαιδευτεί με εικόνες και βίντεο πραγματικών θυμάτων. «Τα δεδομένα των τελευταίων μηνών δείχνουν ότι αυτό το πρόβλημα δεν εξαφανίζεται, αντιθέτως, γίνεται χειρότερο», ανέφερε.

Όπως ανέφερε μέλος του IWF, η κατάσταση με το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη (AI) έχει φτάσει σε ένα «κρίσιμο σημείο», καθώς οι αρμόδιοι φορείς ασφαλείας και οι αρχές δεν είναι σε θέση να γνωρίζουν αν μια εικόνα περιλαμβάνει ένα πραγματικό παιδί που χρειάζεται βοήθεια.

Το IWF έλαβε μέτρα κατά 74 αναφορών υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) που έχουν δημιουργηθεί από τεχνητή νοημοσύνη και ήταν αρκετά ρεαλιστικό ώστε να παραβιάζει τη βρετανική νομοθεσία, μέσα σε έξι μήνες μέχρι τον περασμένο Σεπτέμβριο, σε σύγκριση με 70 αναφορές σε διάστημα 12 μηνών μέχρι τον Μάρτιο.

Εκτός από εικόνες τεχνητής νοημοσύνης που απεικονίζουν πραγματικά θύματα κακοποίησης, το IWF έχει δει επίσης υλικό όπως βίντεο «deepfake», στα οποία πορνογραφικό περιεχόμενο ενηλίκων έχει παραποιηθεί ώστε να μοιάζει με υλικό σεξουαλικής κακοποίησης παιδιών.

Μετατρέπουν celebrities σε παιδιά που κακοποιούνται σεξουαλικά

 

Σε προηγούμενες αναφορές, το IWF έχει δηλώσει ότι  τεχνητή νοημοσύνη έχει χρησιμοποιηθεί για να μετατρέψει celebrities σε παιδιά και να τους εμφανίσει σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα περιλαμβάνουν υλικό όπου το ΑΙ «έβγαλε τα ρούχα» παιδιών από φωτογραφίες που βρέθηκαν στο διαδίκτυο.

Πάνω από το μισό του περιεχομένου που δημιουργήθηκε από AI και επισημάνθηκε από το IWF τους τελευταίους έξι μήνες εντοπίστηκε σε διακομιστές στη Ρωσία και στις ΗΠΑ, ενώ σημαντικές ποσότητες βρέθηκαν επίσης στην Ιαπωνία και την Ολλανδία.

Το IWF ανέφερε ότι οκτώ στις δέκα αναφορές για παράνομες εικόνες που δημιουργήθηκαν από AI προέρχονται από δημόσιες ιστοσελίδες, όπως φόρουμ ή γκαλερί AI.

Ροή Ειδήσεων

Περισσότερα