Διεθνή

«Καμπανάκι» της Europol για εικόνες σεξουαλικής κακοποίησης παιδιών μέσω τεχνητής νοημοσύνης

«Καμπανάκι» της Europol για εικόνες σεξουαλικής κακοποίησης παιδιών μέσω τεχνητής νοημοσύνης Φωτογραφία: UNSPLASH
Ολοένα πιο δύσκολος ο εντοπισμός των δραστών λόγω των εικόνων σεξουαλικής κακοποίησης μέσω AI.

Πληθαίνουν οι εικόνες σεξουαλικής κακοποίησης παιδιών, οι οποίες δημιουργούνται μέσω τεχνητής νοημοσύνης, κάτι που δυσκολεύει ολοένα περισσότερο τον εντοπισμό των θυμάτων και των δραστών, προειδοποιεί η Europol.

«Ο όγκος των αυτόματα κατασκευασμένων εικόνων σεξουαλικού υλικού αποτελεί πλέον ένα σημαντικό και αυξανόμενο μέρος του υλικού σεξουαλικής παιδικής πορνογραφίας στο διαδίκτυο», επισημαίνει σε έκθεσή της. Μάλιστα, εκτιμά ότι αυτές θα εξαπλωθούν περισσότερο στο άμεσο μέλλον.

Ακόμα και σε περιπτώσεις που το περιεχόμενο αποτελεί εξ’ ολοκλήρου αποτέλεσμα τεχνητής νοημοσύνης και οι εικόνες δεν απεικονίζουν πραγματικά θύματα, αυτό το υλικό πορνογραφίας εξακολουθεί να συμβάλλει στην αντικειμενοποίηση και τη σεξουαλικοποίηση παιδιών, τονίζει η Europol.

Επίσης, η χρήση τεχνητής νοημοσύνης για τη δημιουργία ή την τροποποίηση παιδικής πορνογραφίας «αυξάνει την ποσότητα του παράνομου υλικού που κυκλοφορεί και περιπλέκει την αναγνώριση των θυμάτων καθώς και των δραστών», υπογραμμίζει.

Περισσότερα από 300 εκατομμύρια παιδιά πέφτουν θύματα διαδικτυακής σεξουαλικής εκμετάλλευσης και κακοποίησης κάθε χρόνο, ανέφεραν τον Μάιο ερευνητές του πανεπιστημίου του Εδιμβούργου.