Artificial Intelligence (AI)

Max Tegmark (MIT): Η ανθρωπότητα κινδυνεύει από την Tεχνητή Nοημοσύνη

Ο Max Tegmark, καθηγητής φυσικής και ερευνητής τεχνητής νοημοσύνης στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης, ήταν ο συντάκτης μιας ανοιχτής επιστολής τον περασμένο Απρίλιο, την οποία υπέγραψαν μεγάλα ονόματα της παγκόσμιας επιχειρηματικότητας, της επιστήμης και της τεχνολογίας, αναφέροντας ότι η ανεξέλεγκτη ανάπτυξη επιτρέπει σε μερικές εταιρείες τεχνητής νοημοσύνης να θέσουν σε κίνδυνο το μέλλον της κοινωνίας, ζητώντας μια εξάμηνη παύση στην ανάπτυξή όλων των έργων ΑΙ.

«Είμαστε μάρτυρες μιας κούρσας προς τα κάτω που πρέπει να σταματήσει», δήλωσε ο Tegmark στον Guardian. «Χρειαζόμαστε επειγόντως πρότυπα ασφαλείας για την τεχνητή νοημοσύνη, έτσι ώστε αυτό να μετατραπεί σε αγώνα δρόμου προς την κορυφή. Η τεχνητή νοημοσύνη υπόσχεται πολλά απίστευτα οφέλη, αλλά η απερίσκεπτη και ανεξέλεγκτη ανάπτυξη όλο και πιο ισχυρών συστημάτων, χωρίς επίβλεψη, θέτει σε κίνδυνο την οικονομία μας, την κοινωνία μας και τη ζωή μας. Η ρύθμιση της είναι ζωτικής σημασίας για την ασφαλή καινοτομία, έτσι ώστε μια χούφτα εταιρειών τεχνητής νοημοσύνης να μην θέσουν σε κίνδυνο το κοινό μας μέλλον».

Σε μια μελέτη πολιτικής ελέγχου της ΑΙ που δημοσιεύθηκε αυτή την εβδομάδα, 23 εμπειρογνώμονες τεχνητής νοημοσύνης, συμπεριλαμβανομένων δύο σύγχρονων «νονών» της τεχνολογίας, δήλωσαν ότι πρέπει να επιτραπεί στις κυβερνήσεις να σταματήσουν την ανάπτυξη εξαιρετικά ισχυρών μοντέλων.
Η Gillian Hadfield, συν-συγγραφέας της μελέτης και διευθύντρια του Ινστιτούτου Schwartz Reisman για την Τεχνολογία και την Κοινωνία στο Πανεπιστήμιο του Τορόντο, δήλωσε ότι τα μοντέλα AI κατασκευάζονται τους επόμενους 18 μήνες που θα είναι πολλές φορές πιο ισχυρά από αυτά που ήδη λειτουργούν.
«Υπάρχουν εταιρείες που σχεδιάζουν να εκπαιδεύσουν μοντέλα με 100 φορές περισσότερα δεδομένα και ισχύ από τη σημερινή κατάσταση της τεχνολογίας, μέσα σε 18 μήνες», είπε. «Κανείς δεν ξέρει πόσο ισχυρά θα είναι. Και ουσιαστικά δεν υπάρχει κανένας κανονισμός για το τι θα είναι σε θέση να κάνουν με αυτά τα μοντέλα».

“Για εξαιρετικά ικανά μελλοντικά μοντέλα, π.χ. μοντέλα που θα μπορούσαν να παρακάμψουν τον ανθρώπινο έλεγχο, οι κυβερνήσεις πρέπει να είναι έτοιμες να αδειοδοτήσουν την ανάπτυξή τους, να σταματήσουν την ανάπτυξη ως απάντηση σε ανησυχητικές δυνατότητες, να επιβάλουν ελέγχους πρόσβασης και να απαιτήσουν μέτρα ασφάλειας πληροφοριών για τους χάκερ σε κρατικό επίπεδο, έως ότου είναι έτοιμα επαρκή μέτρα προστασίας” ανέφερε η Gillian Hadfield.

close menu