Η OpenAI Λανσάρει το Privacy Filter για Ανίχνευση και Απόκρυψη PII
Caroline Bishop Apr 24, 2026 15:27
Η OpenAI παρουσιάζει το Privacy Filter, ένα μοντέλο για ανίχνευση και απόκρυψη PII με τελευταία τεχνολογία ακρίβειας. Διαθέσιμο τώρα για προγραμματιστές.
Η OpenAI παρουσίασε το Privacy Filter, ένα νέο AI μοντέλο ανοιχτού βάρους σχεδιασμένο να ανιχνεύει και να αποκρύπτει προσωπικά αναγνωρίσιμα στοιχεία (PII) σε κείμενο. Κυκλοφόρησε στις 23 Απριλίου 2026, το εργαλείο προσφέρει ακρίβεια αιχμής για ροές εργασίας απορρήτου, θέτοντας ένα νέο σημείο αναφοράς για την προστασία ευαίσθητων δεδομένων.
Το Privacy Filter στοχεύει να αντιμετωπίσει μακροχρόνιες προκλήσεις στην ανίχνευση PII ξεπερνώντας τα παραδοσιακά συστήματα βασισμένα σε κανόνες. Σε αντίθεση με παλαιότερα εργαλεία που βασίζονται σε ντετερμινιστικά μοτίβα για μορφές όπως αριθμοί τηλεφώνου ή διευθύνσεις email, αυτό το μοντέλο χρησιμοποιεί προηγμένη κατανόηση γλώσσας για ανάλυση μη δομημένου κειμένου και λήψη αποφάσεων βάσει πλαισίου. Για παράδειγμα, μπορεί να διακρίνει μεταξύ δημόσιων και ιδιωτικών πληροφοριών, μια κρίσιμη ικανότητα σε λεπτές εκ φύσεως σενάρια απορρήτου.
Ένα από τα αξιοσημείωτα χαρακτηριστικά του είναι η δυνατότητα τοπικής λειτουργίας, που σημαίνει ότι τα ευαίσθητα δεδομένα μπορούν να επεξεργαστούν απευθείας στο μηχάνημα του χρήστη χωρίς να αποστέλλονται σε εξωτερικούς διακομιστές. Αυτή η σχεδίαση μειώνει τον κίνδυνο έκθεσης δεδομένων και είναι ιδιαίτερα πολύτιμη για εφαρμογές ευαίσθητες στο απόρρητο σε κλάδους όπως η υγειονομική περίθαλψη, τα χρηματοοικονομικά και οι νομικές υπηρεσίες.
Το μοντέλο είναι βελτιστοποιημένο για παραγωγική χρήση, με την αποδοτικότητα στον πυρήνα του. Μπορεί να επεξεργαστεί έως 128.000 tokens πλαισίου σε ένα πέρασμα, διατηρώντας υψηλά ποσοστά ακρίβειας και ανάκλησης. Στο ευρέως χρησιμοποιούμενο benchmark PII-Masking-300k, το Privacy Filter πέτυχε βαθμολογία F1 96%, ανεβαίνοντας στο 97,43% σε διορθωμένη έκδοση του συνόλου δεδομένων. Αυτές οι βαθμολογίες αναδεικνύουν την ικανότητά του να εντοπίζει λεπτές και σύνθετες παραβιάσεις απορρήτου ενώ ελαχιστοποιεί τα ψευδώς θετικά αποτελέσματα.
Η OpenAI έχει καταστήσει το μοντέλο διαθέσιμο υπό άδεια Apache 2.0 μέσω πλατφορμών όπως το Hugging Face και το GitHub, ενθαρρύνοντας τους προγραμματιστές να το πειραματιστούν, να το βελτιστοποιήσουν και να το αναπτύξουν για τις συγκεκριμένες ανάγκες τους. Το μοντέλο υποστηρίζει οκτώ κατηγορίες PII, συμπεριλαμβανομένων των private_person, private_address, private_email και account_number. Είναι διαμορφώσιμο για διάφορες ροές εργασίας, επιτρέποντας στους χρήστες να εξισορροπούν ακρίβεια και ανάκληση βάσει των επιχειρησιακών τους προτεραιοτήτων.
Παρά τις δυνατότητές του, η OpenAI αναγνωρίζει ότι το Privacy Filter δεν αποτελεί αυτοτελή λύση για κανονιστική συμμόρφωση ή αναθεώρηση πολιτικής. Είναι ένα εργαλείο σχεδιασμένο να συμπληρώνει ευρύτερες στρατηγικές privacy-by-design. Το μοντέλο ενδέχεται να απαιτεί περαιτέρω αξιολόγηση ή βελτιστοποίηση για συγκεκριμένους τομείς ώστε να προσαρμοστεί σε διαφορετικές βιομηχανίες, γλώσσες και ονοματολογικές συμβάσεις.
Αυτή η κυκλοφορία αποτελεί μέρος της ευρύτερης προσπάθειας της OpenAI να ενισχύσει τις προστασίες απορρήτου που βασίζονται σε AI. Η εταιρεία έχει τονίσει ότι ο στόχος είναι τα συστήματα AI να μαθαίνουν από δεδομένα χωρίς να διακυβεύεται η ατομική ιδιωτικότητα. Κάνοντας ανοιχτό κώδικα το Privacy Filter, η OpenAI στοχεύει να ενδυναμώσει τους προγραμματιστές και τους οργανισμούς να ενσωματώσουν ισχυρές διασφαλίσεις απορρήτου στις ροές εργασίας τους.
Το Privacy Filter αντιπροσωπεύει ένα σημαντικό βήμα προόδου στην τεχνολογία απορρήτου, ιδιαίτερα καθώς ο κλάδος AI αντιμετωπίζει αυξανόμενο έλεγχο γύρω από την ασφάλεια δεδομένων και τις ηθικές πρακτικές. Για προγραμματιστές και επιχειρήσεις που επιθυμούν να ενισχύσουν τις δυνατότητές τους στη διαχείριση PII, η διαθεσιμότητα του μοντέλου σηματοδοτεί μια κρίσιμη ευκαιρία να υιοθετήσουν εργαλεία αιχμής που δίνουν προτεραιότητα στην ιδιωτικότητα των χρηστών.
Πηγή εικόνας: Shutterstock- ai
- απόρρητο
- openai
- pii
- ασφάλεια δεδομένων








