Εν συντομία
- Η OpenAI δημοσίευσε το "Σχέδιο Ασφάλειας Παιδιών" της, το οποίο αντιμετωπίζει τη σεξουαλική εκμετάλλευση παιδιών με τη χρήση τεχνητής νοημοσύνης.
- Το πλαίσιο επικεντρώνεται σε νομικές μεταρρυθμίσεις, ισχυρότερο συντονισμό αναφορών και εγγυήσεις ενσωματωμένες σε συστήματα τεχνητής νοημοσύνης.
- Η πρόταση αναπτύχθηκε με τη συμβολή ομάδων ασφάλειας παιδιών, γενικών εισαγγελέων και μη κερδοσκοπικών οργανισμών.
Με στόχο την αντιμετώπιση της αύξησης της σεξουαλικής εκμετάλλευσης παιδιών με τη χρήση τεχνητής νοημοσύνης, η OpenAI δημοσίευσε την Τετάρτη ένα πολιτικό σχέδιο που περιγράφει νέα μέτρα ασφαλείας που μπορεί να λάβει ο κλάδος για να βοηθήσει στον περιορισμό της χρήσης της τεχνητής νοημοσύνης στη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών.
Στο πλαίσιο, η OpenAI παραθέτει νομικά, λειτουργικά και τεχνικά μέτρα που στοχεύουν στην ενίσχυση των προστασιών κατά της κακοποίησης με τη χρήση τεχνητής νοημοσύνης και τη βελτίωση του συντονισμού μεταξύ εταιρειών τεχνολογίας και ερευνητών.
"Η σεξουαλική εκμετάλλευση παιδιών είναι μία από τις πιο επείγουσες προκλήσεις της ψηφιακής εποχής", έγραψε η εταιρεία. "Η τεχνητή νοημοσύνη αλλάζει ταχέως τόσο τον τρόπο που αυτές οι βλάβες εμφανίζονται σε όλο τον κλάδο όσο και τον τρόπο που μπορούν να αντιμετωπιστούν σε μεγάλη κλίμακα."
Η OpenAI δήλωσε ότι η πρόταση ενσωματώνει σχόλια από οργανισμούς που εργάζονται στην προστασία παιδιών και την ασφάλεια στο διαδίκτυο, συμπεριλαμβανομένου του Εθνικού Κέντρου για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά και της Συμμαχίας Γενικών Εισαγγελέων και της ομάδας εργασίας της για την τεχνητή νοημοσύνη.
"Η γεννητική τεχνητή νοημοσύνη επιταχύνει το έγκλημα της διαδικτυακής σεξουαλικής εκμετάλλευσης παιδιών με βαθιά ανησυχητικούς τρόπους - μειώνοντας τα εμπόδια, αυξάνοντας την κλίμακα και επιτρέποντας νέες μορφές βλάβης", δήλωσε σε ανακοίνωση η Πρόεδρος & Διευθύνουσα Σύμβουλος του Εθνικού Κέντρου για Αγνοούμενα & Εκμεταλλευόμενα Παιδιά, Michelle DeLaune. "Αλλά ταυτόχρονα, το Εθνικό Κέντρο για Αγνοούμενα & Εκμεταλλευόμενα Παιδιά ενθαρρύνεται να βλέπει εταιρείες όπως η OpenAI να αναλογίζονται πώς αυτά τα εργαλεία μπορούν να σχεδιαστούν πιο υπεύθυνα, με εγγυήσεις ενσωματωμένες από την αρχή."
Η OpenAI δήλωσε ότι το πλαίσιο συνδυάζει νομικά πρότυπα, συστήματα αναφορών του κλάδου και τεχνικές εγγυήσεις εντός των μοντέλων τεχνητής νοημοσύνης. Η εταιρεία δήλωσε ότι αυτά τα μέτρα στοχεύουν να βοηθήσουν στον εντοπισμό κινδύνων εκμετάλλευσης νωρίτερα και να βελτιώσουν τη λογοδοσία σε όλες τις διαδικτυακές πλατφόρμες.
Το σχέδιο προσδιορίζει τομείς δράσης, συμπεριλαμβανομένης της ενημέρωσης των νόμων για την αντιμετώπιση υλικού σεξουαλικής κακοποίησης παιδιών που δημιουργείται ή τροποποιείται από τεχνητή νοημοσύνη, τη βελτίωση του τρόπου με τον οποίο οι διαδικτυακοί πάροχοι αναφέρουν σήματα κακοποίησης και συντονίζονται με ερευνητές, και την ενσωμάτωση εγγυήσεων σε συστήματα τεχνητής νοημοσύνης σχεδιασμένα για την αποτροπή κατάχρησης.
"Καμία μεμονωμένη παρέμβαση δεν μπορεί να αντιμετωπίσει μόνη της αυτή την πρόκληση", έγραψε η εταιρεία. "Αυτό το πλαίσιο φέρνει μαζί νομικές, λειτουργικές και τεχνικές προσεγγίσεις για τον καλύτερο προσδιορισμό των κινδύνων, την επιτάχυνση των αντιδράσεων και την υποστήριξη της λογοδοσίας, διασφαλίζοντας ταυτόχρονα ότι οι αρχές επιβολής παραμένουν ισχυρές καθώς η τεχνολογία εξελίσσεται."
Το σχέδιο έρχεται καθώς οι υπερασπιστές της ασφάλειας των παιδιών έχουν εκφράσει ανησυχίες ότι τα γεννητικά συστήματα τεχνητής νοημοσύνης ικανά να παράγουν ρεαλιστικές εικόνες θα μπορούσαν να χρησιμοποιηθούν για τη δημιουργία χειραγωγημένων ή συνθετικών απεικονίσεων ανηλίκων. Τον Φεβρουάριο, η UNICEF κάλεσε τις κυβερνήσεις του κόσμου να ψηφίσουν νόμους που ποινικοποιούν το υλικό κακοποίησης παιδιών που δημιουργείται από τεχνητή νοημοσύνη.
Τον Ιανουάριο, η Ευρωπαϊκή Επιτροπή εξαπέλυσε επίσημη έρευνα για το εάν το X, που ήταν προηγουμένως γνωστό ως Twitter, παραβίασε τους ψηφιακούς κανόνες της ΕΕ αποτυγχάνοντας να αποτρέψει το εγγενές μοντέλο τεχνητής νοημοσύνης της πλατφόρμας, Grok, από τη δημιουργία παράνομου περιεχομένου, καθώς ρυθμιστικές αρχές στο Ηνωμένο Βασίλειο και την Αυστραλία έχουν επίσης ανοίξει έρευνες.
Σημειώνοντας ότι οι νόμοι μόνοι τους δεν θα σταματήσουν τη μάστιγα του υλικού κακοποίησης που δημιουργείται από τεχνητή νοημοσύνη, η OpenAI δήλωσε ότι ισχυρότερα πρότυπα του κλάδου θα είναι απαραίτητα καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται πιο ικανά.
"Διακόπτοντας τις προσπάθειες εκμετάλλευσης νωρίτερα, βελτιώνοντας την ποιότητα των σημάτων που αποστέλλονται στις αρχές επιβολής του νόμου και ενισχύοντας τη λογοδοσία σε όλο το οικοσύστημα, αυτό το πλαίσιο στοχεύει να αποτρέψει τη βλάβη πριν συμβεί και να βοηθήσει να εξασφαλιστεί ταχύτερη προστασία για τα παιδιά όταν προκύπτουν κίνδυνοι", δήλωσε η OpenAI.
Ενημερωτικό Δελτίο Daily Debrief
Ξεκινήστε κάθε μέρα με τις κορυφαίες ειδήσεις αυτή τη στιγμή, καθώς και πρωτότυπα χαρακτηριστικά, ένα podcast, βίντεο και πολλά άλλα.
Πηγή: https://decrypt.co/363681/openai-child-safety-blueprint-ai-exploitation








