“Λευκή Βίβλο” για την Τεχνητή Νοημοσύνη παρουσιάζει η Ε.Ε. στις 19 Φεβρουαρίου

Νέα

10 Φεβρουαρίου 2020

Τη δική της προσέγγιση για την Τεχνητή Νοημοσύνη (Artificial Intelligence-ΑΙ), η οποία θα έχει τη μορφή “Λευκής Βίβλου”, αναμένεται να παρουσιάσει η Ευρωπαϊκή Επιτροπή στις 19 Φεβρουαρίου 2020. Εν αναμονή της δημοσίευσης της “Λευκής Βίβλου”, το Κοινοβούλιο συζητά σήμερα (Δευτέρα, 10 Φεβρουαρίου) και αναμένεται να ψηφίσει την Τετάρτη (12 Φεβρουαρίου) στη Σύνοδο της Ολομέλειας τα μέτρα, που προτίθεται να λάβει η Ε.Ε. για την προστασία των καταναλωτών, όσον αφορά στη χρήση του ΑΙ.

Τα μέλη του Ευρωπαϊκού Κοινοβουλίου ζητούν μία ισχυρή δέσμη δικαιωμάτων για την προστασία των καταναλωτών στο πλαίσιο του ΑΙ“Κατά την αλληλεπίδραση με κάποιο αυτοματοποιημένο σύστημα λήψης αποφάσεων, θα πρέπει να υπάρχει σωστή ενημέρωση για τον τρόπο λειτουργίας του, πληροφορίες για την επικοινωνία με κάποιον αρμόδιο και δίοδοι για τον έλεγχο και τη διόρθωση των αποφάσεων του συστήματος”, σύμφωνα με το σχέδιο ψηφίσματος της επιτροπής Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών του ΕΚ.

Οι ευρωβουλευτές ζητούν, επίσης, από την Επιτροπή να υποβάλει προτάσεις για τη μεταρρύθμιση των κανόνων σχετικά με την ασφάλεια των καταναλωτών (για παράδειγμα μηχανήματα και παιχνίδια) και τη νομική ευθύνη προσώπων για προϊόντα με δυνατότητες τεχνητής νοημοσύνης.

Συνολικά, το Ευρωπαϊκό Κοινοβούλιο επιθυμεί τη θεσμοθέτηση μιας ισχυρής δέσμης δικαιωμάτων για την προστασία των καταναλωτών στο πλαίσιο της τεχνητής νοημοσύνης. Η Επιτροπή Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών του Κοινοβουλίου έχει, ήδη, εγκρίνει ψήφισμα για τις προκλήσεις που προκύπτουν από την ταχεία ανάπτυξη των τεχνολογιών τεχνητής νοημοσύνης και της αυτοματοποιημένης λήψης αποφάσεων.

Η θέση των Ευρωβουλευτών είναι ότι η Ε.Ε. πρέπει να διασφαλίσει δίκαιη και ασφαλή χρήση του ΑΙ για τους καταναλωτές μέσα από την επικαιροποίηση των Κοινοτικών κανόνων περί ασφάλειας και ευθύνης, λαμβάνοντας υπόψη τα προϊόντα τεχνητής νοημοσύνης. 

Περί ελέγχου
Το βασικό σκεπτικό των Βουλευτών είναι ότι - μέσω της αναθεώρησης - θα πρέπει να διασφαλίζεται ότι ο άνθρωπος είναι εκείνος που θα συνεχίσει να έχει τον έλεγχο σε ένα περιβάλλον, όπου θα κυριαρχούν οι αλγόριθμοι της τεχνητής νοημοσύνης. “Τα συστήματα αυτά θα πρέπει να χρησιμοποιούν μόνο υψηλής ποιότητας και αντικειμενικά σύνολα δεδομένων και επεξηγηματικούς και αμερόληπτους αλγορίθμους, προκειμένου να ενισχυθεί η εμπιστοσύνη και η αποδοχή των καταναλωτών. Θα πρέπει να δημιουργηθούν δομές επανεξέτασης για την αντιμετώπιση πιθανών λαθών στις αυτοματοποιημένες αποφάσεις. Θα πρέπει, επίσης, να υπάρχει η δυνατότητα για τους καταναλωτές να αναζητούν ανθρώπινη κριτική και αποκατάσταση για αυτοματοποιημένες αποφάσεις που είναι τελικές και μόνιμες”, αναφέρει το σχετικό ψήφισμα. 

Το Κοινοβούλιο ζητά να προσαρμοστούν οι κανόνες ασφάλειας και ευθύνης, ώστε να συμπεριλάβουν τη διάσταση των νέων ψηφιακών τεχνολογιών. Τα προϊόντα με δυνατότητα AI μπορούν να εξελιχθούν και να ενεργήσουν με τρόπους, που δεν προβλέπονται κατά την πρώτη διάθεσή τους στην αγορά. Οι ευρωβουλευτές καλούν την Επιτροπή να υποβάλει προτάσεις για την προσαρμογή των κανόνων ασφαλείας της Ε.Ε. για τα προϊόντα (π.χ. οδηγίες για τα μηχανήματα και την ασφάλεια των παιχνιδιών), προκειμένου να διασφαλιστεί αφενός ότι οι καταναλωτές προστατεύονται από βλάβες, αφετέρου ότι οι κατασκευαστές είναι σαφείς σχετικά με τις υποχρεώσεις τους και οι χρήστες ενημερώνονται για τον τρόπο χρήσης αυτών των προϊόντων.

ΔΕΚΕΜΒΡΙΟΣ 2019

ΤΕΥΧΟΣ

17

Έρευνα για τη βιομηχανία Tεχνολογιών Πληροφορικής και Επικοινωνιών 2019/ 2020