back to top
Παρασκευή, 5 Ιουλίου, 2024
ΑρχικήArtificial IntelligenceΗ ασφάλεια των προϊόντων του OpenAI υπό αμφισβήτηση

Η ασφάλεια των προϊόντων του OpenAI υπό αμφισβήτηση


Το OpenAI φαίνεται να γίνεται πρωτοσέλιδο καθημερινά και αυτή τη φορά είναι για διπλή δόση ανησυχιών για την ασφάλεια. Γνωστό για τις προόδους αιχμής του στην τεχνητή νοημοσύνη, το OpenAI έχει πλέον βρεθεί στο προσκήνιο λόγω όχι ενός αλλά δύο σημαντικές παραβιάσεις ασφαλείας.

Αυτά τα περιστατικά έχουν εγείρει ερωτήματα σχετικά με τον χειρισμό δεδομένων και τα πρωτόκολλα κυβερνοασφάλειας της εταιρείας, κλονίζοντας την εμπιστοσύνη τόσο των χρηστών όσο και των ειδικών του κλάδου.

Το ChatGPT για Mac είναι γεμάτο ελαττώματα ασφαλείας

Η εφαρμογή Mac για ChatGPT ήταν ένα δημοφιλές εργαλείο για χρήστες που θέλουν να αξιοποιήσουν το ισχυρό μοντέλο γλώσσας του OpenAI, GPT-4o, απευθείας από τους επιτραπέζιους υπολογιστές τους. Ωστόσο, αυτή την εβδομάδα, αποκαλύφθηκε ένα ελάττωμα ασφαλείας.

Πέδρο Χοσέ Περέιρα Βιεΐτο, ένας προγραμματιστής του Swift, ανακάλυψε ότι η εφαρμογή αποθήκευε τις συνομιλίες των χρηστών σε απλό κείμενο τοπικά στη συσκευή. Αυτό σημαίνει ότι τυχόν ευαίσθητες πληροφορίες που κοινοποιήθηκαν κατά τη διάρκεια αυτών των συνομιλιών δεν προστατεύονταν, καθιστώντας τις προσβάσιμες σε άλλες εφαρμογές ή πιθανά κακόβουλα προγράμματα.

Τα ευρήματα του Vieito ελήφθησαν γρήγορα από το τεχνολογικό ειδησεογραφικό μέσο Το χείλος, ενισχύοντας την ανησυχία μεταξύ των χρηστών και ωθώντας το OpenAI να λάβει γρήγορα μέτρα. Η εταιρεία κυκλοφόρησε μια ενημέρωση που εισήγαγε κρυπτογράφηση για τις τοπικά αποθηκευμένες συνομιλίεςαντιμετωπίζοντας την άμεση ανησυχία για την ασφάλεια.

Η απουσία sandboxing, μια πρακτική ασφαλείας που απομονώνει τις εφαρμογές για να αποτρέψει τα τρωτά σημεία από το να επηρεάσουν άλλα μέρη του συστήματος, περιέπλεξε περαιτέρω το ζήτημα. Δεδομένου ότι η εφαρμογή ChatGPT δεν είναι διαθέσιμη στο Apple Store, αυτό δεν χρειάζεται να συμμορφώνεται με τις απαιτήσεις sandboxing της Apple.

Το γεγονός ότι μια τέτοια βασική επίβλεψη ασφάλειας έλαβε χώρα εξαρχής έχει εγείρει ερωτήματα σχετικά με τις πρακτικές εσωτερικής ασφάλειας του OpenAI και την πληρότητα της διαδικασίας ανάπτυξης εφαρμογών του.

Αυτό το κενό επέτρεψε στην εφαρμογή να αποθηκεύει δεδομένα με ανασφάλεια, εκθέτοντας τους χρήστες σε πιθανούς κινδύνους.

Η γρήγορη επιδιόρθωση από το OpenAI έχει μετριάσει την άμεση απειλή, αλλά έχει επίσης τονίσει την ανάγκη για πιο αυστηρά μέτρα ασφαλείας στην ανάπτυξη και την ανάπτυξη εφαρμογών AI.

Το βιβλίο παιχνιδιού ενός χάκερ

Το δεύτερο ζήτημα ασφαλείας που αντιμετωπίζει το OpenAI είναι με τις ρίζες του σε ένα περιστατικό από την περασμένη άνοιξηαλλά οι επιπτώσεις του γίνονται αισθητές ακόμα και σήμερα.

Στις αρχές του περασμένου έτους, ένας χάκερ κατάφερε να παραβιάσει τα εσωτερικά συστήματα ανταλλαγής μηνυμάτων του OpenAI, αποκτώντας πρόσβαση σε ευαίσθητες πληροφορίες σχετικά με τις λειτουργίες της εταιρείας και τις τεχνολογίες τεχνητής νοημοσύνης. ο Ο χάκερ ανέβασε τις λεπτομέρειες από τις σε ένα διαδικτυακό φόρουμ όπου οι εργαζόμενοι μιλούσαν για τις τελευταίες τεχνολογίες του OpenAIσύμφωνα με δύο άτομα που γνωρίζουν το περιστατικό, αλλά δεν μπήκε στα συστήματα όπου η εταιρεία στεγάζει και κατασκευάζει το AI της.

Στελέχη του OpenAI αποκάλυψαν το περιστατικό στους εργαζόμενους κατά τη διάρκεια μιας Ολόκληρη συνάντηση στα γραφεία της εταιρείας στο Σαν Φρανσίσκο τον Απρίλιο του 2023. Ωστόσο, πάρθηκε η απόφαση να μην αποκαλυφθεί δημόσια η παραβίαση, καθώς δεν κλάπηκαν πληροφορίες πελατών ή συνεργατών και τα στελέχη δεν την είδαν ως απειλή για την εθνική ασφάλεια. Πίστευαν το Ο χάκερ ήταν ιδιώτης χωρίς δεσμούς με καμία ξένη κυβέρνησηέτσι αυτοί δεν ενημέρωσε το FBI ή τις αρχές επιβολής του νόμου.

Η εφαρμογή Mac ChatGPT είχε προηγουμένως βρεθεί ότι αποθηκεύει τις συνομιλίες των χρηστών σε απλό κείμενο, θέτοντας σε κίνδυνο την ασφάλεια (Πίστωση εικόνας)

Αυτή η απόφαση οδήγησε σε εσωτερικές ανησυχίες σχετικά με τη στάση ασφαλείας του OpenAI. Κάποιοι υπάλληλοι ανησυχούσαν γι' αυτό Ξένοι αντίπαλοι, όπως η Κίνα, θα μπορούσαν ενδεχομένως να εκμεταλλευτούν παρόμοια τρωτά σημεία να κλέψει τεχνολογία τεχνητής νοημοσύνης που θα μπορούσε τελικά να αποτελέσει απειλή για την εθνική ασφάλεια των ΗΠΑ.

Leopold Aschenbrenner, αν Υπεύθυνος τεχνικού προγράμματος OpenAIυποστήριξε ότι η εταιρεία δεν λάμβανε αρκετά μέτρα για να αποτρέψει τέτοιες απειλές. Έστειλε ένα υπόμνημα στο διοικητικό συμβούλιο στο οποίο περιγράφει τις ανησυχίες του, αλλά αργότερα απολύθηκε, μια κίνηση που ισχυρίζεται ότι είχε πολιτικά κίνητρα λόγω των καταγγελιών του.

Ψιθυριστές ανησυχίες

ο εσωτερική παραβίαση και επακόλουθο χειρισμό του συμβάντος έχουν αποκαλύψει βαθύτερα σπασίματα στο OpenAI όσον αφορά τις πρακτικές ασφάλειας και τη διαφάνεια. Η απόλυση του Aschenbrenner, την οποία ισχυρίζεται ότι ήταν αποτέλεσμα της καταγγελίας του, έχει πυροδοτήσει συζητήσεις σχετικά με τη δέσμευση της εταιρείας στην ασφάλεια και τον τρόπο αντιμετώπισης της εσωτερικής διαφωνίας. Ενώ η OpenAI υποστηρίζει ότι η παύση του δεν είχε σχέση με την καταγγελία του, η κατάσταση έχει τονίσει τις εντάσεις εντός της εταιρείας.

Η παραβίαση και οι συνέπειές της υπογράμμισαν επίσης τους πιθανούς γεωπολιτικούς κινδύνους που συνδέονται με τις προηγμένες τεχνολογίες τεχνητής νοημοσύνης. Ο φόβος ότι μυστικά τεχνητής νοημοσύνης θα μπορούσαν να κλαπούν από ξένους αντιπάλους όπως η Κίνα δεν είναι αβάσιμος. Παρόμοιες ανησυχίες έχουν διατυπωθεί στον κλάδο της τεχνολογίας, ιδίως από τον Πρόεδρο της Microsoft, Μπραντ Σμιθ, ο οποίος κατέθεσε για Κινέζους χάκερ που εκμεταλλεύονται τεχνολογικά συστήματα για να επιτεθούν σε ομοσπονδιακά δίκτυα.

Παρά αυτές τις ανησυχίες, οι ομοσπονδιακοί και πολιτειακοί νόμοι εμποδίζουν εταιρείες όπως το OpenAI να κάνουν διακρίσεις με βάση την εθνικότητα. Οι ειδικοί υποστηρίζουν ότι ο αποκλεισμός ξένων ταλέντων θα μπορούσε να εμποδίσει την ανάπτυξη τεχνητής νοημοσύνης στις ΗΠΑ, ο επικεφαλής ασφαλείας του OpenAI, Matt Knight, τόνισε την ανάγκη εξισορρόπησης αυτών των κινδύνων, αξιοποιώντας παράλληλα τα καλύτερα ταλέντα παγκοσμίως για την προώθηση τεχνολογιών AI.

Λάθη ασφαλείας OpenAI
Πίσω το 2023, ένας χάκερ παραβίασε τα εσωτερικά συστήματα ανταλλαγής μηνυμάτων του OpenAI την περασμένη άνοιξη, αποκτώντας πρόσβαση σε ευαίσθητες πληροφορίες (Πίστωση εικόνας)

είναι το play του OpenAI;

Ως απάντηση σε αυτά τα περιστατικά, Το OpenAI έχει λάβει μέτρα για να ενισχύσει τα μέτρα ασφαλείας του. Η εταιρεία έχει ιδρύσει ένα Επιτροπή Ασφάλειας και Ασφάλειας για την αξιολόγηση και τον μετριασμό των κινδύνων που συνδέονται με τις μελλοντικές τεχνολογίες. Η επιτροπή αυτή περιλαμβάνει αξιόλογα στοιχεία όπως π.χ Paul Nakasoneπρώην στρατηγός του Στρατού που ηγήθηκε της Υπηρεσίας Εθνικής Ασφάλειας και της Διοίκησης Κυβερνοχώρου, και διορίστηκε στο διοικητικό συμβούλιο του OpenAI.

Η δέσμευση του OpenAI για την ασφάλεια αποδεικνύεται περαιτέρω από τις συνεχείς επενδύσεις του στη διαφύλαξη των τεχνολογιών του. Ο Knight τόνισε ότι αυτές οι προσπάθειες ξεκίνησαν χρόνια πριν από την εισαγωγή του ChatGPT και συνεχίζουν να εξελίσσονται καθώς η εταιρεία προσπαθεί να κατανοήσει και να αντιμετωπίσει τους αναδυόμενους κινδύνους. Παρά αυτά τα προληπτικά μέτρα, τα πρόσφατα περιστατικά έδειξαν ότι το ταξίδι προς την ισχυρή ασφάλεια είναι σε εξέλιξη και απαιτεί συνεχή επαγρύπνηση.


Πίστωση επιλεγμένης εικόνας: Κιμ Μένιχ/Ξεβιδώστε





VIA: DataConomy.com

Marizas Dimitris
Marizas Dimitrishttps://www.techwar.gr
Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.
RELATED ARTICLES

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Most Popular

Last Articles