Security - Cybersecurity

Χάκερς μπορούσαν να κλέψουν κλειδιά API και να εκτελέσουν κώδικα απλώς ανοίγοντας ένα Project

Η Check Point Research αποκάλυψε κρίσιμες ευπάθειες στο Claude Code της Anthropic - όλες διορθώθηκαν πριν τη δημοσίευση

Η ομάδα της Check Point Research (CPR) αποκάλυψε κρίσιμες ευπάθειες ασφαλείας στο Claude Code, το εργαλείο ανάπτυξης λογισμικού της Anthropic που χρησιμοποιείται από δεκάδες εκατομμύρια χρήστες μηνιαίως. Οι ευπάθειες επέτρεπαν σε κακόβουλους παράγοντες να εκτελέσουν εξ αποστάσεως κώδικα και να αποσπάσουν κλειδιά API – απλώς εξαναγκάζοντας έναν προγραμματιστή να ανοίξει ένα παραβιασμένο αποθετήριο κώδικα. Όλα τα ευρήματα αναφέρθηκαν υπεύθυνα στην Anthropic και έχουν ήδη διορθωθεί.

Τα Κύρια Ευρήματα

  • Εκτέλεση εντολών χωρίς ειδοποίηση (CVE-2025-59536): Μηχανισμοί αυτοματισμού του Claude Code μπορούσαν να ενεργοποιηθούν αθόρυβα κατά την εκκίνηση ενός project, εκτελώντας κρυφές εντολές shell χωρίς καμία ορατή ειδοποίηση στον προγραμματιστή.
  • Παράκαμψη συναίνεσης χρήστη: Ρυθμίσεις αποθετηρίου μπορούσαν να παρακάμψουν τους ενσωματωμένους ελέγχους εγκρίσεων του MCP (Model Context Protocol), επιτρέποντας εκτέλεση εξωτερικών υπηρεσιών πριν ο χρήστης δώσει την άδειά του.
  • Κλοπή κλειδιών API (CVE-2026-21852): Η κυκλοφορία API – συμπεριλαμβανομένων των πλήρων headers αυθεντικοποίησης – μπορούσε να ανακατευθυνθεί σε server υπό τον έλεγχο του επιτιθέμενου, πριν καν ο χρήστης επιβεβαιώσει ότι εμπιστεύεται το project.
  • Ευρύτερος αντίκτυπος σε εταιρικά περιβάλλοντα: Ένα μόνο κλεμμένο κλειδί API σε εταιρικό workspace της Anthropic θα μπορούσε να επιτρέψει πρόσβαση, τροποποίηση ή διαγραφή κοινόχρηστων αρχείων, καθώς και δημιουργία μη εξουσιοδοτημένων χρεώσεων.

Τι Λέει η Check Point

“Αυτή η έρευνα αναδεικνύει μια θεμελιώδη αλλαγή στον τρόπο που αντιμετωπίζουμε τους κινδύνους στην εποχή της τεχνητής νοημοσύνης. Τα εργαλεία ανάπτυξης λογισμικού βασισμένα σε AI δεν είναι πλέον περιφερειακά βοηθήματα – γίνονται βασική υποδομή. Οι οργανισμοί που υιοθετούν AI με γρήγορους ρυθμούς πρέπει να διασφαλίσουν ότι το μοντέλο ασφάλειάς τους εξελίσσεται με τον ίδιο ρυθμό.” – Oded Vanunu, Head of Product Vulnerability Research, Check Point

Τι Διορθώθηκε

Σε συνεργασία με την Anthropic, η Check Point Research ενημέρωσε άμεσα την εταιρεία σχετικά με τα ευρύματα. Η Anthropic υλοποίησε διορθώσεις που:

  • Ενίσχυσαν τις διαδικασίες εγκρίσεων εμπιστοσύνης χρήστη
  • Απαγόρευσαν την εκτέλεση εξωτερικών εργαλείων πριν από ρητή έγκριση
  • Εμπόδισαν επικοινωνίες API έως ότου επιβεβαιωθεί η συγκατάθεση του χρήστη στο project

Η Ευρύτερη Εικόνα: Νέοι Κίνδυνοι στην Αλυσίδα Εφοδιασμού AI

Τα ευρήματα αντικατοπτρίζουν μια ευρύτερη μετατόπιση στον τρόπο λειτουργίας των αλυσίδων εφοδιασμού λογισμικού. Τα αρχεία ρυθμίσεων αποθετηρίου, που παραδοσιακά αντιμετωπίζονταν ως αδρανές μεταδεδομένα, έχουν πλέον τη δυνατότητα να επηρεάζουν την εκτέλεση, τη δικτύωση και τα δικαιώματα πρόσβασης. Στην εποχή του AI, η ασφάλεια δεν αφορά μόνο το να αποτρέπεις κακόβουλο κώδικα – αφορά το να κατανοείς πώς τα ίδια τα επίπεδα αυτοματισμού αλλάζουν τους κανόνες.

close menu