Διεθνή

38 terabytes ιδιωτικών δεδομένων εκτεθειμένα κατά λάθος από ομάδα AI της Microsoft

Στις 15 Σεπτεμβρίου 2023, ερευνητές της Microsoft AI εξέθεσαν κατά λάθος 38 terabytes ιδιωτικών δεδομένων σε ένα δημόσιο αρχείο δεδομένων του GitHub. Τα δεδομένα αυτά περιλάμβαναν ευαίσθητες πληροφορίες, όπως προσωπικά στοιχεία, βιογραφικά σημειώματα, φωτογραφίες, κωδικούς πρόσβασης και 30.000 μηνύματα του Teams.

Η έκθεση των δεδομένων ανακαλύφθηκε από τον ερευνητή ασφαλείας Kevin Beaumont, ο οποίος ενημέρωσε τη Microsoft. Η εταιρεία διέκοψε την πρόσβαση στο αρχείο και ξεκίνησε έρευνα για το συμβάν.

Σύμφωνα με τη Microsoft, τα δεδομένα αυτά προέρχονται από μια έρευνα που πραγματοποιήθηκε από την ομάδα AI για τη δημιουργία ενός νέου γλωσσικού μοντέλου ΑΙ. Η ομάδα χρησιμοποίησε δεδομένα από διάφορες πηγές, συμπεριλαμβανομένων κοινωνικών δικτύων, ιστοσελίδων και δημόσιων αρχείων.

Οι ερευνητές μοιράστηκαν τα αρχεία τους χρησιμοποιώντας μια λειτουργία του Azure που ονομάζεται SAS tokens, η οποία επιτρέπει τον διαμοιρασμό δεδομένων από λογαριασμούς Azure Storage. Το επίπεδο πρόσβασης μπορεί να περιοριστεί μόνο σε συγκεκριμένα αρχεία. Ωστόσο, σε αυτήν την περίπτωση, ο σύνδεσμος διαμορφώθηκε για κοινή χρήση ολόκληρου του λογαριασμού αποθήκευσης — συμπεριλαμβανομένων 38 TB ιδιωτικών αρχείων.

Αυτή η περίπτωση είναι ένα παράδειγμα των νέων κινδύνων που αντιμετωπίζουν οι οργανισμοί όταν αρχίζουν να αξιοποιούν τη δύναμη της τεχνητής νοημοσύνης ευρύτερα, καθώς όλο και περισσότεροι μηχανικοί ΑΙ εργάζονται πλέον με τεράστιες ποσότητες δεδομένων εκπαίδευσης τα οποία απαιτούν πρόσθετους ελέγχους ασφαλείας και άλλες διασφαλίσεις επιπέδου Cybersecurity.

close menu