Η ραγδαία πρόοδος της τεχνητής νοημοσύνης (ΤΝ) φέρνει μαζί της ένα πλήθος ευκαιριών αλλά και σημαντικές προκλήσεις, ιδιαίτερα στον τομέα της ασφάλειας και της ιδιωτικότητας. Από τα μεγάλα γλωσσικά μοντέλα μέχρι τα έξυπνα συστήματα παρακολούθησης, η χρήση της ΤΝ αλλάζει τον τρόπο με τον οποίο συλλέγονται, αναλύονται και χρησιμοποιούνται τα προσωπικά δεδομένα. Ενώ οι δυνατότητες αυτών των τεχνολογιών είναι εντυπωσιακές, η ανεξέλεγκτη χρήση τους μπορεί να οδηγήσει σε σοβαρές παραβιάσεις των θεμελιωδών δικαιωμάτων του ανθρώπου.
Η τεχνητή νοημοσύνη βασίζεται στην επεξεργασία τεράστιων ποσοτήτων δεδομένων – πολλές φορές προσωπικού χαρακτήρα. Η συλλογή τέτοιων δεδομένων γίνεται συχνά χωρίς τη ρητή συναίνεση των χρηστών, και πολλές φορές αυτοί αγνοούν το πώς χρησιμοποιούνται. Για παράδειγμα, εφαρμογές αναγνώρισης προσώπου ή έξυπνες βοηθητικές συσκευές, όπως οι ψηφιακοί βοηθοί (π.χ. Siri, Alexa), συλλέγουν συνεχώς πληροφορίες που μπορούν να αποκαλύψουν ευαίσθητες πτυχές της ιδιωτικής ζωής.
Αυτό δημιουργεί τον κίνδυνο παρακολούθησης σε μαζική κλίμακα, καθώς και την πιθανότητα δημιουργίας «προφίλ» πολιτών, χωρίς να τους δίνεται η δυνατότητα να ελέγξουν ποιος έχει πρόσβαση στα δεδομένα τους.
Ένα σημαντικό πρόβλημα ασφάλειας και δικαιοσύνης είναι η λεγόμενη αλγοριθμική προκατάληψη. Οι αλγόριθμοι TN εκπαιδεύονται σε υπάρχοντα σύνολα δεδομένων, τα οποία συχνά περιέχουν κοινωνικές προκαταλήψεις (biases). Έτσι, τα συστήματα μπορεί να ενισχύσουν ή να αναπαράγουν διακρίσεις βάσει φύλου, φυλής, ηλικίας ή άλλων κοινωνικών χαρακτηριστικών.
Σε συστήματα που χρησιμοποιούνται σε κρίσιμους τομείς, όπως η επιβολή του νόμου ή οι διαδικασίες αξιολόγησης και πρόσληψης, τέτοιες προκαταλήψεις μπορεί να οδηγήσουν σε αδικίες και να υπονομεύσουν την αξιοπιστία και τη διαφάνεια της τεχνολογίας.
Τα συστήματα ΤΝ είναι ευάλωτα σε επιθέσεις όπως τα “adversarial attacks”, όπου μικρές μεταβολές στα δεδομένα εισόδου μπορούν να ξεγελάσουν το μοντέλο και να το οδηγήσουν σε λανθασμένες αποφάσεις. Επιπλέον, η χρήση ΤΝ σε αυτόνομα συστήματα, όπως drones ή αυτόνομα οχήματα, εγείρει σοβαρά ζητήματα ασφάλειας όταν αυτά πέσουν θύματα κακόβουλων επιθέσεων.
Η ενσωμάτωση της ΤΝ στην λειτουργία κρίσιμων υποδομών (όπως δίκτυα ενέργειας, υγείας, μεταφορών κα) αυξάνει περαιτέρω τις επιφάνειες επίθεσης (attack surfaces), καθιστώντας την κυβερνοασφάλεια, ζήτημα ύψιστης σημασίας.
Καθώς η ΤΝ γίνεται όλο και πιο διεισδυτική στην καθημερινότητα, οι χρήστες χάνουν σταδιακά την ικανότητα να δρουν ανώνυμα ή να έχουν τον πλήρη έλεγχο των προσωπικών τους αποφάσεων. Τα προγνωστικά μοντέλα μπορεί να «μαντεύουν» με ακρίβεια τις επιθυμίες ή τις συμπεριφορές των ανθρώπων, επηρεάζοντας έτσι εμμέσως τις επιλογές τους, ιδιαίτερα δε σε πολιτικό/ιδεολογικό επίπεδο με αντίκτυπο σε εκλογικές διαδικασίες.
Περεταίρω, η συνεχής παρακολούθηση από «έξυπνες» κάμερες, αισθητήρες και συσκευές δημιουργεί ένα περιβάλλον όπου η αίσθηση της ιδιωτικότητας μειώνεται αισθητά. Το φαινόμενο αυτό είναι εντονότερο σε χώρες με αυταρχικά συστήματα διακυβέρνησης όπου χρησιμοποιούνται μαζικά τεχνολογίες κοινωνικής αξιολόγησης (social scoring).
Η εξέλιξη της τεχνολογίας ΤΝ προηγείται συχνά της νομικής ρύθμισης. Παρά τις προσπάθειες ορισμένων χωρών και της Ευρωπαϊκής Ένωσης να θεσπίσουν κανονισμούς, όπως η Πράξη για την Τεχνητή Νοημοσύνη (AI Act), υπάρχει ακόμη σημαντικό νομικό κενό.
Το ερώτημα «ποιος είναι υπεύθυνος όταν η ΤΝ λαμβάνει λανθασμένες αποφάσεις;» παραμένει ανοικτό. Οι νομικές ευθύνες, η διαφάνεια των αλγορίθμων και το δικαίωμα εξήγησης των αποφάσεων (right to explanation) αποτελούν κομβικά ζητήματα που χρειάζονται άμεση αντιμετώπιση. Από την άλλη πλευρά η ανάγκη για ανταγωνιστικότερη Ευρωπαϊκή καινοτομία, οδηγεί την Ευρωπαϊκή Επιτροπή σε αποφάσεις συστηματικής απλοποίησης του κανονιστικού και ρυθμιστικού περιβάλλοντος στην ΕΕ. Έτσι το δίπολο ιδιωτικότητα ή καινοτομία επανέρχεται δριμύτερο στο Ευρωπαϊκό προσκήνιο, ειδικά μετά την σχετική έκθεση Ντράγκι που έκρουσε τον κώδωνα του κινδύνου για υστέρηση της ΕΕ σε καινοτομία και ανταγωνιστικότητα.
Η ΤΝ θέτει νέα ηθικά διλήμματα σχετικά με τη χρήση της σε πολεμικά συστήματα, στην επιτήρηση πολιτών, ή στην επεξεργασία ευαίσθητων βιομετρικών και γενετικών πληροφοριών. Το ζήτημα της “ανθρωποκεντρικής” ΤΝ τίθεται πλέον ως επιτακτική ανάγκη: πώς διασφαλίζουμε ότι η ΤΝ υπηρετεί τον άνθρωπο και δεν τον χειραγωγεί;
Η δημιουργία πλαισίων διακυβέρνησης της ΤΝ που να ενσωματώνουν ηθικές αρχές (διαφάνεια, υπευθυνότητα, ασφάλεια, δικαιοσύνη) είναι πλέον ζωτικής σημασίας.
Η εποχή της Τεχνητής Νοημοσύνης είναι αδιαμφισβήτητα συναρπαστική, αλλά και γεμάτη προκλήσεις. Η εξισορρόπηση μεταξύ καινοτομίας και προστασίας θεμελιωδών δικαιωμάτων είναι δύσκολη αλλά απαραίτητη. Η ιδιωτικότητα και η ασφάλεια δεν πρέπει να θεωρούνται πολυτέλειες, αλλά βασικά δικαιώματα που πρέπει να διασφαλίζονται και να ενισχύονται μέσω κατάλληλων τεχνολογικών, νομικών και ηθικών μηχανισμών. Μόνο μέσα από διαφανείς πρακτικές, υπεύθυνη χρήση της τεχνολογίας και παγκόσμια συνεργασία μπορούμε να οικοδομήσουμε ένα μέλλον όπου η τεχνητή νοημοσύνη υπηρετεί την κοινωνία με τρόπο δίκαιο και ασφαλή.