της Ελενας Ερμείδου
Το πλαίσιο ενεργειών των ασφαλιστικών επιχειρήσεων σε θέματα που άπτονται της Τεχνητής Νοημοσύνης (ΑΙ) συνοψίζει σήμερα με μία πρώτη εκτίμηση το IW.gr, με αφορμή την έγκριση του Κανονισμού της ΕΕ για την Τεχνητή νοημοσύνη (AI Act), αντλώντας πληροφορίες από την πρόσφατη μελέτη της Mapfre για την πρόληψη των κινδύνων από την ΤΝ, Τι προβλέπει ο Κανονισμός, ποια τα πρώτα μηνύματα της Mapfre προς τις Ασφαλιστικές.
Στόχος
Στόχος της νέας νομοθεσίας της ΕΕ και της μελέτης της Mapfre είναι να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου, να ενισχύσει τον εκσυγχρονισμό στην Ευρώπη. Γι’ αυτόν τον σκοπό, ο κανονισμός αλλά και η μελέτη της Mapfre ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, και προσεγγίσεις των ασφαλιστών, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση της ΤΝ.
MAPFRE :Πλαίσιο ενεργειών
Η πρόσφατη έκθεση που διεξήχθη από την ισπανική ασφαλιστική εταιρεία MAPFRE, συγκεκριμένα παρουσιάζει ένα πλαίσιο ενεργειών που πρέπει να εξετάσουν οι ασφαλιστές εν όψει των πιθανών εξελίξεων στη Τεχνητή Νοημοσύνη (AI), με στόχο τον μετριασμό των κινδύνων και την ενίσχυση του θετικού αντίκτυπου στην κοινωνία.
Η έκθεση, με τίτλο «Εξερευνώντας το αύριο: ο ρόλος των ασφαλιστών σε μια κοινωνία που χαρακτηρίζεται από Generative AI», περιγράφει τέσσερα ακραία αλλά εύλογα σενάρια για το πώς η Generative AI θα μπορούσε να επηρεάσει την κοινωνία μέχρι το 2029, μαζί με τον ρόλο που θα μπορούσε να παίξει ο ασφαλιστικός κλάδος σε κάθε σενάριο. .
Ο José Antonio Arias, Chief Innovation Officer της MAPFRE, διευκρινίζει: «Στόχος μας είναι να πραγματοποιήσουμε έναν ισορροπημένο πλαίσιο σχετικά με τα ενδεχόμενα που θα μπορούσαν να προκύψουν σε κάθε πιθανό σενάριο στην εξέλιξη της Generative AI. Με αυτόν τον τρόπο, θα είμαστε σε θέση να εργαστούμε ώστε, ανεξάρτητα από το τι μπορεί να επιφυλάσσεται στο μέλλον, να υλοποιηθεί το καλύτερο δυνατό σενάριο για όλους».
Σε κάθε σενάριο, εμφανίζονται νέοι κίνδυνοι ή επιδεινώνονται οι προϋπάρχοντες, καθιστώντας αναγκαία την συμβολή του ασφαλιστικού στην κάλυψη των κινδύνων, αφού προσαρμοστεί στις νέες ρυθμίσεις.
Η MAPFRE δημιούργησε ένα πλαίσιο για τον ασφαλιστικό κλάδο, περιγράφοντας λεπτομερώς πώς οι εταιρείες μπορούν να υιοθετήσουν προληπτικά μέτρα κατά της ς Generative AI προς όφελος τους και των πελατών τους.
Δράσεις
Μια γραμμή δράσης που περιγράφεται από τη MAPFRE είναι η: αυξημένη ζήτηση για προστασία στον κυβερνοχώρο μέσω ασφάλισης, δεδομένης της εξελισσόμενης πολυπλοκότητας των κυβερνοεπιθέσεων που εντείνεται από την τεχνητή νοημοσύνη.
Εργαλεία εντοπισμού ψευδών στοιχείων
Άλλα σχέδια δράσης περιλαμβάνουν την παροχή υπηρεσιών που προωθούν την υπεύθυνη χρήση του Generative AI, την προσφορά εργαλείων για τον εντοπισμό ψευδών στοιχείων, την ανάπτυξη προσαρμοσμένων προϊόντων για τη βελτίωση της εμπειρίας των πελατών και την εκπαίδευση ομάδων σχετικά με το Generative AI.
Ο Arias τονίζει τη σημασία αυτού του πλαισίου, δηλώνοντας: «Η ευαισθητοποίηση και η εκπαίδευση της κοινωνίας σχετικά με την υπεύθυνη και κατάλληλη χρήση της Generative AI είναι απαραίτητη σε όλους τους τομείς. Οι ασφαλιστές πρέπει να συμβάλουν σε αυτό, λαμβάνοντας προληπτικά μέτρα για τη μείωση των κινδύνων στους οποίους εκτίθενται άτομα και εταιρείες».
Ο Κανονισμός της ΕΕ για την ΤΝ
Ο Κανονισμός της ΕΕ για την χρήση ΤΝ που εγκρίθηκε πρόσφατα προβλέπει: Δικλείδες ασφαλείας για την τεχνητή νοημοσύνη «γενικής χρήσης» Περιορισμοί στη χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου Απαγόρευση της κοινωνικής βαθμολόγησης και της χρήσης τεχνητής νοημοσύνης για χειραγώγηση ή εκμετάλλευση ευάλωτων χρηστών ψηφιακών συστημάτων Δικαίωμα των καταναλωτών να υποβάλλουν καταγγελίες .
Απαγορεύσεις
Οι νέοι κανόνες απαγορεύουν τις εφαρμογές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων.
Θα απαγορεύεται η αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.
Εξαιρέσεις υπό συνθήκη
Η χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου απαγορεύεται κατά κανόνα, με εξαίρεση τις συγκεκριμένες περιπτώσεις που παραθέτει και ορίζει λεπτομερώς ο νέος κανονισμός. Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε πραγματικό χρόνο» επιτρέπεται μόνο υπό αυστηρέ προϋποθέσεις: αν, για παράδειγμα, η βιομετρική ταυτοποίηση θα χρησιμοποιηθεί μόνο για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές. Τέτοιες περιπτώσεις μπορεί να είναι η στοχευμένη αναζήτηση αγνοουμένου προσώπου ή η πρόληψη μιας τρομοκρατικής επίθεσης. Η χρήση συστημάτων βιομετρικής ταυτοποίησης «σε ύστερο χρόνο» θεωρείται υψηλού κινδύνου και απαιτεί δικαστική έγκριση που θα συνδέεται με κάποιο ποινικό αδίκημα.
Υποχρεώσεις για τα συστήματα υψηλού κινδύνου.
Ο νέος κανονισμός θέτει σαφείς υποχρεώσεις και για τα υπόλοιπα συστήματα τεχνητής νοημοσύνης που θεωρούνται υψηλού κινδύνου, λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου. Το κείμενο απαριθμεί τους τομείς στους οποίους χρησιμοποιούνται ή ενδέχεται να χρησιμοποιηθούν τέτοια συστήματα και οι οποίοι είναι: οι κρίσιμες υποδομές, η εκπαίδευση και η επαγγελματική κατάρτιση, η απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), η επιβολή του νόμου, η διαχείριση της μετανάστευσης και των συνόρων, καθώς και οι δικαστικές και δημοκρατικές διαδικασίες (π.χ. για τον επηρεασμό εκλογικών διαδικασιών).
Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους
Για τα ισχυρότερα μοντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυσλειτουργίες. Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο -deepfakes» απαιτείται επισήμανση.
Μέτρα για στήριξη μικρομεσαίων επιχειρήσεων
Οι εθνικές αρχές κάθε χώρας καλούνται να σχεδιάσουν ρυθμίσεις που δοκιμάζουν τις συνθήκες και τα συστήματα ΤΝ. Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νεοφυείς επιχειρήσεις.