back to top
11 C
Athens
Τετάρτη Ιανουάριος 22 2025

Chatbot, “ψάρεμα”, απάτη: Τι αλλάζει στις ασφάλειες

Chatbot, ηλεκτρονικό “ψάρεμα”, ψευδή στοιχεία, απάτη, επίθεση. Πώς θα διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη; Θα έχει ευθύνες ο ιδιοκτήτης του μηχανήματος; Πώς ορίζεται το ασφαλιστικό συμβάν; Τι απαντά μελέτη των Lloyds που δόθηκε στην δημοσιότητα την περασμένη εβδομάδα.

της Ελενας Ερμείδου (μέρος α’)

- Advertisement -

H τεχνολογία της τεχνητής νοημοσύνης (ΑΙ) δεν είναι νέα, είναι πάνω από 60 ετών. Ξεκίνησε να γίνεται γνωστή στους κόλπους της ακαδημαϊκής κοινότητας και μόλις τα τελευταία χρόνια άρχισε να υιοθετείται σε πολλούς άλλους επιχειρηματικούς τομείς, όπως στην διάγνωση ιατρικών συνθηκών, στη σάρωση νομικών εγγραφών, στην γεωργία, την αυτοκινητοβιομηχανία. Λόγω της πολυπλοκότητας εγείρονται ηθικά, δεοντολογικά, νομικά, ρυθμιστικά ερωτήματα στα οποία απαντήσεις επιχειρούνται να δοθούν από τα Lloyds του Λονδίνου. Οι προκλήσεις θα είναι πολλές και οι επιχειρηματικές ευκαιρίες επίσης. Η μετάβαση, πάντως από την συμβατική στην τεχνολογία της τεχνητής νοημοσύνης δεν θα είναι απλή υπόθεση.

Η νέα μελέτη των Lloyds εξετάζει τους κινδύνους και τις επιχειρηματικές ευκαιρίες για τους ασφαλιστές και το κλάδο μελετώντας τον συνδυασμό της τεχνολογίας τεχνητής νοημοσύνης με την τεχνολογία 5G η οποία επιτρέπει την συλλογή όγκου δεδομένων για την τροφοδότηση των συστημάτων τεχνητής νοημοσύνης.

- Advertisement -

Κίνδυνοι που απορρέουν από την τεχνολογία

Αβεβαιότητα

Υπάρχουν κίνδυνοι σε ό,τι αφορά την  υιοθέτηση της Τεχνητής Νοημοσύνης, καθώς το είδος αυτό της τεχνολογίας “πλέεi” σε άγνωστα.  Είναι κατανοητοί οι φόβοι που εκφράζουν όλοι οι ενδιαφερόμενοι και οι ρυθμιστικές αρχές.

Δεοντολογία

Η “δράση” των μηχανών εξαρτάται από τις μεγάλες συλλογές δεδομένων από τα οποία εξάγεται η γνώση μέσω κωδικοποίησης των ιστοριών. Εντούτοις, μέσα σε αυτές τις ιστορίες υπάρχουν προκαταλήψεις, μεροληπτικές θέσεις και κοινωνικές.  Συνεπώς, η τεχνητή νοημοσύνη εξαρτάται από τις πληροφορίες που έχουν δοθεί κάτι και το οποίο μπορεί ενεργήσει κατά των ανθρωπίνων συμφερόντων.

Εμπιστοσύνη και διαφάνεια

Η διαφάνεια της διαδικασίας λήψης αποφάσεων και η ικανότητα κατανόησης του τρόπου με τον οποίο ο μηχανισμός τεχνητής νοημοσύνης κατέληξε σε συγκεκριμένο συμπέρασμα θα είναι το κλειδί για την ανάπτυξη εμπιστοσύνης στην τεχνολογία.

Ευθύνη

Μια άλλη σημαντική πρόκληση είναι η νομική κατάσταση των συστημάτων και υπηρεσιών της τεχνητής νοημοσύνης. Αν και μπορεί να γίνουν πολλά στην διαχείριση των δεδομένων και στο τρόπου που αυτά περνάνε από τους μηχανικούς στην τεχνητή νοημοσύνη, θα πρέπει να υπάρξουν ισχυρά νομικά πλαίσια για τον ορισμό της ευθύνης.

Σε γενικές γραμμές, ο κατασκευαστής ενός προϊόντος ευθύνεται για ελαττώματα που προκαλούν ζημιές στους χρήστες. Ωστόσο, στην περίπτωση της τεχνητής νοημοσύνης ,οι αποφάσεις δεν είναι συνέπεια του σχεδιασμού, αλλά της ερμηνείας της πραγματικότητας από μια μηχανή.

Ασφάλεια

Αξίζει να σημειωθεί ότι η τεχνητή νοημοσύνη αποτελεί επίσης μια νέα διάσταση στην ασφάλεια του κυβερνοχώρου καθώς μπορεί να μάθει και να αντιδρά σε απειλές πολύ πιο γρήγορα από τις παραδοσιακές μεθόδους που χρησιμοποιούνται από τα παλαιότερα προϊόντα ασφαλείας. Ωστόσο, οι εγκληματίες αρχίζουν επίσης να χρησιμοποιούν την τεχνητή νοημοσύνη για να μάθουν πώς να διεξάγουν όλα τα στάδια μιας τυπικής επίθεσης: από την αναγνώριση μέχρι τη δημιουργία μιας συγκεκριμένης επίθεσης.

Καθώς αυτά τα συστήματα καθίστανται πιο πολύπλοκα και εσωτερικά συνδεδεμένα, οι παραβιάσεις της ασφάλειας (cyber) θα αποκτήσουν μεγαλύτερο οικονομικό αντίκτυπο.

Αντίκτυπος στις ασφάλειες

Η έκθεση εντοπίζει τις συνέπειες για την ανάκληση προϊόντων, την ευθύνη των τρίτων για τα αυτοκίνητα, τις αποζημιώσεις, τα ιατρικά λάθη, τον κυβερνοχώρο, την πιστότητα και τους πολιτικούς κινδύνους.

Ευθύνη προϊόντος και ανάκληση προϊόντος

Υπάρχουν πολλοί τρόποι με τους οποίους ένα προϊόν που εξαρτάται από την τεχνολογία τεχνητής νοημοσύνης μπορεί να επηρεάσει την ευθύνη και ανάκληση προϊόντος.

Παραδείγματα περιλαμβάνουν:

  • Μια νέα κατάσταση στην οποία η τεχνητή νοημοσύνη δεν έχει προγραμματιστεί να αντιμετωπίσει, προκαλώντας βλάβη ή δυσλειτουργία.
  • Τα ελαττώματα του προϊόντος θα μπορούσαν να προκύψουν από σφάλματα επικοινωνίας μεταξύ δύο μηχανών ή μεταξύ μηχανής και υποδομής.

Ευθύνες:  οι μηχανές τεχνητής νοημοσύνης δεν μπορούν να ευθύνονται για αμέλειες πράξεις ή παραλείψεις που προκαλούν ζημιές σε τρίτους. Το ερώτημα που προκύπτει είναι “Ποιος είναι υπεύθυνος όταν μια μηχανή διαπράξει αστικό λάθος;”.

Οι κατασκευαστές / πωλητές προϊόντων, οι σχεδιαστές / προμηθευτές και όσοι αγοράζουν τεχνητή νοημοσύνη θα μπορούν να προσαχθούν  στα δικαστήρια για  ευθύνες. Αυτό σημαίνει ότι οι περισσότερες εταιρείες θα πρέπει να αγοράσουν περισσότερες συμβατικές εγγυήσεις και ευθύνες για να καλύψουν τους κινδύνους ευθύνης τεχνητής νοημοσύνης.

Αστική ευθύνη αυτοκινήτου

Η ανάθεση και η κάλυψη της ευθύνης θα γίνουν πιο προκλητικές στο μέλλον λόγω της πιθανής μετατόπισης της ευθύνης από τους ανθρώπινους οδηγούς στα αυτοματοποιημένα οχήματα (AV) και συνεπώς στους κατασκευαστές.

Υπάρχει επίσης δυναμική για διαφορετικές νομικές και ρυθμιστικές απαντήσεις σε διάφορες χώρες, δημιουργώντας ένα περίπλοκο διεθνές περιβάλλον κινδύνου.

Ιατρική αμέλεια

Υπάρχουν διάφοροι τρόποι με τους οποίους θα μπορούσε να προκύψει αμέλεια. Η τεχνητή νοημοσύνη χρησιμοποιείται για τη διάγνωση των συνθηκών και εφαρμόζεται σε τομείς όπως οι ακτίνες.  Εάν ένα σφάλμα οδηγεί σε λανθασμένη διάγνωση ή ψευδώς θετικό αποτέλεσμα, αυτό θα μπορούσε να ισοδυναμεί με αμέλεια.

– Ακόμη και αν η τεχνητή νοημοσύνη χρησιμοποιήθηκε βοηθητικά για παραπομπές, εάν αυτές οι παραπομπές προκάλεσαν έρευνες ή διαδικασίες που ήταν περιττές, επεμβατικές ή οδήγησαν σε φτωχότερα αποτελέσματα ασθενών τότε θα μπορούσε να προκύψει ευθύνη.

Cyber

Καθώς η τεχνολογία chatbot αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη. Αυτό θα μπορούσε να διευκολύνει τη διεξαγωγή απάτης ηλεκτρονικού “ψαρέματος” και να κάνει ακόμα πιο δύσκολη την ανίχνευση.

-Αυτό εγείρει ερωτήματα σχετικά με το είδος των ασφαλιστικών καλύψεων που θα πρέπει να σχεδιαστούν από τέτοιου είδους κυβερνοεπιθέσεις. Επίσης θα πρέπει οριστεί προσεκτικά το είναι ασφαλιστικό συμβάν.

– Η ευθύνη τρίτων θα μπορούσε επίσης να καταστεί πιο περίπλοκη. Εάν ένας chatbot κάνει επίθεση, ο ιδιοκτήτης του θα μπορούσε να είναι υπεύθυνος αν δεν μπορέσει να δείξει ότι είχε λάβει εύλογα μέτρα ασφαλείας για να αποτρέψει μια τέτοια επίθεση να συμβεί.

Πιστότητα

Η δόλια δραστηριότητα των εργαζομένων θα μπορούσε να επιδεινωθεί με οποιαδήποτε από τις μεθόδους που αναφέρονται παραπάνω για το Cyber ​​. Οι ασφαλιστές πιστότητας θα πρέπει να θεωρούν ότι η απάτη μπορεί να προέρχεται όλο και περισσότερο από εργαζόμενους που έχουν πρόσβαση σε συστήματα πληροφορικής και όχι από υπαλλήλους με οικονομική εξουσία.

Πολιτικοί κίνδυνοι

Η πόλεμος της τεχνητής νοημοσύνης θα μπορούσε να λάβει πολλές μορφές, συμπεριλαμβανομένης της διαφθοράς των δεδομένων, της μεροληπτικής επιλογής δεδομένων και της παράνομης χρήσης δεδομένων που οδηγούν σε διάφορα αποτελέσματα, συμπεριλαμβανομένης της προπαγάνδας, της αλλαγής συμπεριφοράς και της εξαπάτησης.

Από την άποψη της κάλυψης των πολιτικών κινδύνων, η τεχνητή νοημοσύνη μπορεί να συμβάλει στη δημιουργία νέων ή επιδείνωσης των υφιστάμενων πολιτικών γεγονότων, όπως απαλλοτριώσεις, πολέμους, τρομοκρατικές ενέργειες, πολιτικές διαταραχές και άλλες μορφές πολιτικής βίας τόσο στις αναπτυσσόμενες όσο και στις αναπτυγμένες αγορές.

Σχετικές δημοσιεύσεις

Πώς η ΑΙ επαναπροσδιορίζει τον ρόλο του Συντονιστή Ασφαλιστικών Πρακτόρων

Η πρωτοβουλία μετεκπαίδευσης ενδιαφερομένων Ασφαλιστικών Διαμεσολαβητών μας, την οποία αναπτύσσουν από κοινού η ΕΣΑΠΕ και το ΕΙΑΣ

SOS για τις απάτες παραβίασης τραπεζικών λογαριασμών

Σε εγρήγορση καλούν τους συναλλασσόμενους οι τράπεζες μετά από περιστατικό «εισαγόμενης» απάτης στον Βόλο

Τι λέει η Allianz για το νόμο ΑΙ και την διασφάλιση των πελατών της

Ο νόμος επιδιώκει να μειώσει κινδύνους, όπως είναι η μεροληψία, οι τεχνικές που χειραγωγούν ανθρώπινες συμπεριφορές ...

Howden: Οι επιχειρήσεις ζητούν φοροελαφρύνσεις για επενδύσεις στον κυβερνοχώρο

O ασφαλιστικός κλάδος πρέπει να συνεργαστεί με την κυβέρνηση για την αποτελεσματική αντιμετώπιση των κυβερνοεπιθέσεων.

Από την ίδια κατηγορία δημοσιεύσεων

Οδηγός για ψηφιακή κάρτα εργασίας

Για πρώτη φορά, καταγράφεται ψηφιακά όλο το ισχύον θεσμικό πλαίσιο που ρυθμίζει την Ψηφιακή Κάρτα Εργασίας

Ο Βαγγέλης Μπακάλης Τεχνικός Διευθυντής P&C και Marine στην Howden Hellas

Η Howden Hellas, ο μεγαλύτερος μεσίτης ασφαλίσεων στην Ελλάδα και στην Κύπρο, ανακοινώνει με χαρά την ένταξη του Βαγγέλη Μπακάλη

Nέο ΔΣ στην ΕΑΔΕ, με πρόεδρο την κα Δήμητρα – Ιωάννα Λύχρου

Νέο Διοικητικό Συμβούλιο συγκροτήθηκε την 14 η Ιανουαρίου 2025 για την ΕΑΔΕ, κατά την τακτική προγραμματισμένη συνεδρίαση των Μελών της.

Oι θέσεις της ΕΑΕΕ για τη διάταξη αναπροσαρμογής ασφαλίστρων υγείας

Η Ένωση Ασφαλιστικών Εταιριών Ελλάδος (ΕΑΕΕ) διατυπώνει τις θέσεις της για την διάταξη με θέμα την αναπροσαρμογή ασφαλίστρων υγείας

Δημοφιλή Άρθρα

Ροή Ειδήσεων

Οδηγός για ψηφιακή κάρτα εργασίας

Για πρώτη φορά, καταγράφεται ψηφιακά όλο το ισχύον θεσμικό πλαίσιο που ρυθμίζει την Ψηφιακή Κάρτα Εργασίας

«Πονοκέφαλος» για επιχειρήσεις και οργανισμούς οι επιθέσεις DDOS

Ολοένα και πιο συχνή απειλή για επιχειρήσεις και οργανισμούς αποτελούν οι κατανεμημένες επιθέσεις άρνησης υπηρεσίας (DDoS/Distributed Denial-of-Service).

Η Carglass® συμμετέχει στο πρόγραμμα ανακύκλωσης The Green City

Η Carglass®, κορυφαία εταιρεία στον τομέα επισκευής και αντικατάστασης κρυστάλλων οχημάτων καθώς και στην παραμετροποίηση συστημάτων ADAS

Τρόμος πια με τα ανασφάλιστα

Εμβρόντητος πραγματικά έμεινε ο Ανασφάλιστος, μέχρι και τρόμος τον έπιασε όταν στο τηλέφωνο συζητώντας με υψηλόβαθμο στέλεχος .....

Είναι ή δεν είναι “sexy” να είσαι ασφαλιστής;

Στην πρόσφατη παρουσίαση, για 14η συνεχόμενη χρονιά, της Ετήσιας Έκθεσης για την Ασφαλιστική Αγορά για το 2024 από την KPMG στην Ελλάδα