Κυβερνοασφάλεια

Kυβερνοασφάλεια: Το 50% των περιστατικών θα αφορά AI έως το 2028

cyber-attack-new

Σε μια νέα, ιδιαίτερα απαιτητική φάση, εισέρχεται η κυβερνοασφάλεια, καθώς η ταχεία ανάπτυξη εφαρμογών τεχνητής νοημοσύνης μεταβάλλει ριζικά το τοπίο των απειλών. Σύμφωνα με τις τελευταίες προβλέψεις της Gartner, έως το 2028, το 50% των ενεργειών αντιμετώπισης περιστατικών κυβερνοασφάλειας στις επιχειρήσεις θα αφορά περιστατικά, που σχετίζονται με custom-built εφαρμογές AI.

Η ταχεία υιοθέτηση AI φέρνει εκρηκτική αύξηση περιστατικών ασφαλείας και επιβαρύνει τις εταιρείες με “data debt”

Η εξέλιξη αυτή δεν αποτελεί απλώς μια τεχνολογική μετάβαση, αλλά μια βαθιά επιχειρησιακή πρόκληση, που απαιτεί αναθεώρηση στρατηγικών, διαδικασιών και επενδύσεων. Η εικόνα, που παρουσιάστηκε στο Gartner Security & Risk Management Summit, είναι σαφής: οι εταιρείες υιοθετούν εφαρμογές AI με ταχύτητα, που ξεπερνά την ικανότητά τους να τις διασφαλίσουν.

Όπως επισημαίνει η Gartner, πολλά εργαλεία - ιδίως custom εφαρμογές AI - αναπτύσσονται και τίθενται σε λειτουργία πριν ολοκληρωθεί ο απαραίτητος έλεγχος ασφάλειας. Το αποτέλεσμα είναι συστήματα σύνθετα, δυναμικά και δύσκολα στη θωράκιση, με τις ομάδες ασφάλειας να στερούνται σαφών διαδικασιών διαχείρισης περιστατικών, που σχετίζονται με AI.

Αυτό μεταφράζεται σε μεγαλύτερους χρόνους απόκρισης και αυξημένη επιχειρησιακή επιβάρυνση. Η απάντηση της αγοράς διαμορφώνεται ήδη. Μέχρι το 2028, περισσότερες από τις μισές επιχειρήσεις αναμένεται να υιοθετήσουν πλατφόρμες ασφάλειας AI, με στόχο να προστατεύσουν τόσο τις εφαρμογές που αναπτύσσουν εσωτερικά, όσο και τη χρήση υπηρεσιών τρίτων.

Οι πλατφόρμες αυτές επιτρέπουν κεντρικοποιημένη εποπτεία και έλεγχο, αντιμετωπίζοντας κινδύνους, όπως prompt injection και κακή χρήση δεδομένων. Παράλληλα, δίνουν τη δυνατότητα στους υπεύθυνους ασφάλειας να επιβάλλουν πολιτικές χρήσης, να παρακολουθούν τη δραστηριότητα AI και να εφαρμόζουν ενιαία πλαίσια προστασίας.

Η ετοιμότητα των δεδομένων

Ωστόσο, η πρόκληση δεν περιορίζεται στην τεχνολογία. Ένα από τα σημαντικότερα εμπόδια είναι η ποιότητα και η ετοιμότητα των δεδομένων. Μέχρι το 2030, το 33% της εργασίας στον τομέα IT θα αφιερώνεται στη διαχείριση και αποκατάσταση του λεγόμενου “AI data debt”.

Τα περισσότερα δεδομένα των οργανισμών παραμένουν μη δομημένα και ανεπαρκώς προστατευμένα, καθιστώντας δύσκολη την ασφαλή αξιοποίησή τους από συστήματα AI. Οι επιχειρήσεις καλούνται να επεκτείνουν τις πολιτικές πρόληψης απώλειας δεδομένων και να συνεργαστούν στενά με ομάδες data και AI για τη δημιουργία δομημένων προγραμμάτων διαχείρισης και ελέγχου πρόσβασης.

Την ίδια στιγμή, το ρυθμιστικό περιβάλλον γίνεται ολοένα και πιο απαιτητικό. Έως το 2027, το 75% των οργανισμών, που λειτουργούν σε ρυθμιζόμενα περιβάλλοντα, θα εκτεθεί σε πρόστιμα που υπερβαίνουν το 5% των παγκόσμιων εσόδων τους, λόγω ανεπαρκών - και κυρίως χειροκίνητων - διαδικασιών συμμόρφωσης σε θέματα AI.

Η σύγκλιση των κανονισμών διεθνώς δημιουργεί την ανάγκη για συστηματική διαχείριση κινδύνου, με την Gartner να υπογραμμίζει τη σημασία ενσωμάτωσης της συμμόρφωσης μέσω τεχνολογικών λύσεων και όχι αποσπασματικών πρακτικών.

Κυβερνοασφάλεια και γεωπολιτικές εξελίξεις

Παράλληλα, οι γεωπολιτικές εξελίξεις επηρεάζουν άμεσα τη στρατηγική κυβερνοασφάλειας. Μέχρι το 2027, το 30% των οργανισμών θα απαιτεί πλήρη κυριαρχία (sovereignty) στους ελέγχους ασφάλειας του cloud, προκειμένου να αντιμετωπίσει τους αυξανόμενους κινδύνους, που σχετίζονται με τη διαχείριση δεδομένων σε διαφορετικές δικαιοδοσίες. Αυτό αναμένεται να οδηγήσει σε αλλαγές στις επιλογές προμηθευτών και σε αναπροσαρμογή των επενδύσεων.

Τέλος, η ταυτότητα αναδεικνύεται σε βασικό πεδίο επίθεσης. Μέχρι το 2028, το 70% των CISOs θα αξιοποιεί δυνατότητες ορατότητας και ευφυΐας ταυτότητας, με στόχο τη μείωση της επιφάνειας επιθέσεων στο IAM και τον περιορισμό του κινδύνου παραβίασης διαπιστευτηρίων. Η αυξανόμενη πολυπλοκότητα στη διαχείριση ανθρώπινων και μηχανικών ταυτοτήτων δημιουργεί “τυφλά σημεία”, τα οποία οι οργανισμοί καλούνται να καλύψουν μέσω ενοποιημένων, AI-driven λύσεων.

ΔΕΙΤΕ ΑΚΟΜΑ

Περισσότερα