back to top
29.9 C
Athens
Δευτέρα 23 Ιουνίου 2025

Chatbot, “ψάρεμα”, απάτη: Τι αλλάζει στις ασφάλειες

Chatbot, ηλεκτρονικό “ψάρεμα”, ψευδή στοιχεία, απάτη, επίθεση. Πώς θα διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη; Θα έχει ευθύνες ο ιδιοκτήτης του μηχανήματος; Πώς ορίζεται το ασφαλιστικό συμβάν; Τι απαντά μελέτη των Lloyds που δόθηκε στην δημοσιότητα την περασμένη εβδομάδα.

της Ελενας Ερμείδου (μέρος α’)

- Advertisement -

H τεχνολογία της τεχνητής νοημοσύνης (ΑΙ) δεν είναι νέα, είναι πάνω από 60 ετών. Ξεκίνησε να γίνεται γνωστή στους κόλπους της ακαδημαϊκής κοινότητας και μόλις τα τελευταία χρόνια άρχισε να υιοθετείται σε πολλούς άλλους επιχειρηματικούς τομείς, όπως στην διάγνωση ιατρικών συνθηκών, στη σάρωση νομικών εγγραφών, στην γεωργία, την αυτοκινητοβιομηχανία. Λόγω της πολυπλοκότητας εγείρονται ηθικά, δεοντολογικά, νομικά, ρυθμιστικά ερωτήματα στα οποία απαντήσεις επιχειρούνται να δοθούν από τα Lloyds του Λονδίνου. Οι προκλήσεις θα είναι πολλές και οι επιχειρηματικές ευκαιρίες επίσης. Η μετάβαση, πάντως από την συμβατική στην τεχνολογία της τεχνητής νοημοσύνης δεν θα είναι απλή υπόθεση.

Η νέα μελέτη των Lloyds εξετάζει τους κινδύνους και τις επιχειρηματικές ευκαιρίες για τους ασφαλιστές και το κλάδο μελετώντας τον συνδυασμό της τεχνολογίας τεχνητής νοημοσύνης με την τεχνολογία 5G η οποία επιτρέπει την συλλογή όγκου δεδομένων για την τροφοδότηση των συστημάτων τεχνητής νοημοσύνης.

- Advertisement -

Κίνδυνοι που απορρέουν από την τεχνολογία

Αβεβαιότητα

Υπάρχουν κίνδυνοι σε ό,τι αφορά την  υιοθέτηση της Τεχνητής Νοημοσύνης, καθώς το είδος αυτό της τεχνολογίας “πλέεi” σε άγνωστα.  Είναι κατανοητοί οι φόβοι που εκφράζουν όλοι οι ενδιαφερόμενοι και οι ρυθμιστικές αρχές.

Δεοντολογία

Η “δράση” των μηχανών εξαρτάται από τις μεγάλες συλλογές δεδομένων από τα οποία εξάγεται η γνώση μέσω κωδικοποίησης των ιστοριών. Εντούτοις, μέσα σε αυτές τις ιστορίες υπάρχουν προκαταλήψεις, μεροληπτικές θέσεις και κοινωνικές.  Συνεπώς, η τεχνητή νοημοσύνη εξαρτάται από τις πληροφορίες που έχουν δοθεί κάτι και το οποίο μπορεί ενεργήσει κατά των ανθρωπίνων συμφερόντων.

Εμπιστοσύνη και διαφάνεια

Η διαφάνεια της διαδικασίας λήψης αποφάσεων και η ικανότητα κατανόησης του τρόπου με τον οποίο ο μηχανισμός τεχνητής νοημοσύνης κατέληξε σε συγκεκριμένο συμπέρασμα θα είναι το κλειδί για την ανάπτυξη εμπιστοσύνης στην τεχνολογία.

Ευθύνη

Μια άλλη σημαντική πρόκληση είναι η νομική κατάσταση των συστημάτων και υπηρεσιών της τεχνητής νοημοσύνης. Αν και μπορεί να γίνουν πολλά στην διαχείριση των δεδομένων και στο τρόπου που αυτά περνάνε από τους μηχανικούς στην τεχνητή νοημοσύνη, θα πρέπει να υπάρξουν ισχυρά νομικά πλαίσια για τον ορισμό της ευθύνης.

Σε γενικές γραμμές, ο κατασκευαστής ενός προϊόντος ευθύνεται για ελαττώματα που προκαλούν ζημιές στους χρήστες. Ωστόσο, στην περίπτωση της τεχνητής νοημοσύνης ,οι αποφάσεις δεν είναι συνέπεια του σχεδιασμού, αλλά της ερμηνείας της πραγματικότητας από μια μηχανή.

Ασφάλεια

Αξίζει να σημειωθεί ότι η τεχνητή νοημοσύνη αποτελεί επίσης μια νέα διάσταση στην ασφάλεια του κυβερνοχώρου καθώς μπορεί να μάθει και να αντιδρά σε απειλές πολύ πιο γρήγορα από τις παραδοσιακές μεθόδους που χρησιμοποιούνται από τα παλαιότερα προϊόντα ασφαλείας. Ωστόσο, οι εγκληματίες αρχίζουν επίσης να χρησιμοποιούν την τεχνητή νοημοσύνη για να μάθουν πώς να διεξάγουν όλα τα στάδια μιας τυπικής επίθεσης: από την αναγνώριση μέχρι τη δημιουργία μιας συγκεκριμένης επίθεσης.

Καθώς αυτά τα συστήματα καθίστανται πιο πολύπλοκα και εσωτερικά συνδεδεμένα, οι παραβιάσεις της ασφάλειας (cyber) θα αποκτήσουν μεγαλύτερο οικονομικό αντίκτυπο.

Αντίκτυπος στις ασφάλειες

Η έκθεση εντοπίζει τις συνέπειες για την ανάκληση προϊόντων, την ευθύνη των τρίτων για τα αυτοκίνητα, τις αποζημιώσεις, τα ιατρικά λάθη, τον κυβερνοχώρο, την πιστότητα και τους πολιτικούς κινδύνους.

Ευθύνη προϊόντος και ανάκληση προϊόντος

Υπάρχουν πολλοί τρόποι με τους οποίους ένα προϊόν που εξαρτάται από την τεχνολογία τεχνητής νοημοσύνης μπορεί να επηρεάσει την ευθύνη και ανάκληση προϊόντος.

Παραδείγματα περιλαμβάνουν:

  • Μια νέα κατάσταση στην οποία η τεχνητή νοημοσύνη δεν έχει προγραμματιστεί να αντιμετωπίσει, προκαλώντας βλάβη ή δυσλειτουργία.
  • Τα ελαττώματα του προϊόντος θα μπορούσαν να προκύψουν από σφάλματα επικοινωνίας μεταξύ δύο μηχανών ή μεταξύ μηχανής και υποδομής.

Ευθύνες:  οι μηχανές τεχνητής νοημοσύνης δεν μπορούν να ευθύνονται για αμέλειες πράξεις ή παραλείψεις που προκαλούν ζημιές σε τρίτους. Το ερώτημα που προκύπτει είναι “Ποιος είναι υπεύθυνος όταν μια μηχανή διαπράξει αστικό λάθος;”.

Οι κατασκευαστές / πωλητές προϊόντων, οι σχεδιαστές / προμηθευτές και όσοι αγοράζουν τεχνητή νοημοσύνη θα μπορούν να προσαχθούν  στα δικαστήρια για  ευθύνες. Αυτό σημαίνει ότι οι περισσότερες εταιρείες θα πρέπει να αγοράσουν περισσότερες συμβατικές εγγυήσεις και ευθύνες για να καλύψουν τους κινδύνους ευθύνης τεχνητής νοημοσύνης.

Αστική ευθύνη αυτοκινήτου

Η ανάθεση και η κάλυψη της ευθύνης θα γίνουν πιο προκλητικές στο μέλλον λόγω της πιθανής μετατόπισης της ευθύνης από τους ανθρώπινους οδηγούς στα αυτοματοποιημένα οχήματα (AV) και συνεπώς στους κατασκευαστές.

Υπάρχει επίσης δυναμική για διαφορετικές νομικές και ρυθμιστικές απαντήσεις σε διάφορες χώρες, δημιουργώντας ένα περίπλοκο διεθνές περιβάλλον κινδύνου.

Ιατρική αμέλεια

Υπάρχουν διάφοροι τρόποι με τους οποίους θα μπορούσε να προκύψει αμέλεια. Η τεχνητή νοημοσύνη χρησιμοποιείται για τη διάγνωση των συνθηκών και εφαρμόζεται σε τομείς όπως οι ακτίνες.  Εάν ένα σφάλμα οδηγεί σε λανθασμένη διάγνωση ή ψευδώς θετικό αποτέλεσμα, αυτό θα μπορούσε να ισοδυναμεί με αμέλεια.

– Ακόμη και αν η τεχνητή νοημοσύνη χρησιμοποιήθηκε βοηθητικά για παραπομπές, εάν αυτές οι παραπομπές προκάλεσαν έρευνες ή διαδικασίες που ήταν περιττές, επεμβατικές ή οδήγησαν σε φτωχότερα αποτελέσματα ασθενών τότε θα μπορούσε να προκύψει ευθύνη.

Cyber

Καθώς η τεχνολογία chatbot αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη. Αυτό θα μπορούσε να διευκολύνει τη διεξαγωγή απάτης ηλεκτρονικού “ψαρέματος” και να κάνει ακόμα πιο δύσκολη την ανίχνευση.

-Αυτό εγείρει ερωτήματα σχετικά με το είδος των ασφαλιστικών καλύψεων που θα πρέπει να σχεδιαστούν από τέτοιου είδους κυβερνοεπιθέσεις. Επίσης θα πρέπει οριστεί προσεκτικά το είναι ασφαλιστικό συμβάν.

– Η ευθύνη τρίτων θα μπορούσε επίσης να καταστεί πιο περίπλοκη. Εάν ένας chatbot κάνει επίθεση, ο ιδιοκτήτης του θα μπορούσε να είναι υπεύθυνος αν δεν μπορέσει να δείξει ότι είχε λάβει εύλογα μέτρα ασφαλείας για να αποτρέψει μια τέτοια επίθεση να συμβεί.

Πιστότητα

Η δόλια δραστηριότητα των εργαζομένων θα μπορούσε να επιδεινωθεί με οποιαδήποτε από τις μεθόδους που αναφέρονται παραπάνω για το Cyber ​​. Οι ασφαλιστές πιστότητας θα πρέπει να θεωρούν ότι η απάτη μπορεί να προέρχεται όλο και περισσότερο από εργαζόμενους που έχουν πρόσβαση σε συστήματα πληροφορικής και όχι από υπαλλήλους με οικονομική εξουσία.

Πολιτικοί κίνδυνοι

Η πόλεμος της τεχνητής νοημοσύνης θα μπορούσε να λάβει πολλές μορφές, συμπεριλαμβανομένης της διαφθοράς των δεδομένων, της μεροληπτικής επιλογής δεδομένων και της παράνομης χρήσης δεδομένων που οδηγούν σε διάφορα αποτελέσματα, συμπεριλαμβανομένης της προπαγάνδας, της αλλαγής συμπεριφοράς και της εξαπάτησης.

Από την άποψη της κάλυψης των πολιτικών κινδύνων, η τεχνητή νοημοσύνη μπορεί να συμβάλει στη δημιουργία νέων ή επιδείνωσης των υφιστάμενων πολιτικών γεγονότων, όπως απαλλοτριώσεις, πολέμους, τρομοκρατικές ενέργειες, πολιτικές διαταραχές και άλλες μορφές πολιτικής βίας τόσο στις αναπτυσσόμενες όσο και στις αναπτυγμένες αγορές.

Σχετικές δημοσιεύσεις

16 δισεκατομμύρια κωδικοί από Apple, Google & Facebook εκτέθηκαν στο διαδίκτυο

Μια από τις μεγαλύτερες διαρροές δεδομένων όλων των εποχών φαίνεται πως σημειώθηκε τις τελευταίες ημέρες, με ειδικούς στην κυβερνοασφάλεια να κάνουν λόγο για έναν...

“Αν καταφέρουμε να διαχειριστούμε σωστά το ΑΙ, θα γίνει αναπόσπαστο μέρος της καθημερινότητάς μας”

Η Τεχνητή Νοημοσύνη ήρθε για να μείνει και να εξελίξει τους χρήστες των δεδομένων που πραγματεύεται. Είναι αναγκαία η προσαρμογή μας

ERGO: AI & Ασφαλιστική Διαμεσολάβηση: Μια Στρατηγική Συμμαχία για το Παρόν και το Μέλλον

Η Τεχνητή Νοημοσύνη (AI) έχει ήδη αλλάξει τα δεδομένα στον ασφαλιστικό κλάδο, μεταμορφώνοντας ριζικά τον τρόπο λειτουργίας τόσο των εταιρειών όσο και των διαμεσολαβητών.

KPMG: Oι 2 μεγαλύτερες προκλήσεις στην εφαρμογή της ΑΙ στον ασφαλιστικό κλάδο

Η KPMG International παρουσιάζει τη νέα της παγκόσμια έρευνα με τίτλο “Intelligent Industries: Blueprints for Creating Value through AI-Driven Transformation”.

Από την ίδια κατηγορία δημοσιεύσεων

ΜΙΝΕΤΤΑ Ασφαλιστική: Πυροπροστασία και Ασφάλιση Περιουσίας. Εκπαίδευση Συνεργατών για τα σύγχρονα δεδομένα

Μια ξεχωριστή εκπαίδευση για τους συνεργάτες της, πραγματοποίησε η ΜΙΝΕΤΤΑ Ασφαλιστική στις αρχές Ιουνίου.

Γ. Κιούκας, Cover Insurance: Οι 4 προϋποθέσεις για την αύξηση της ασφαλιστικής παραγωγής

Tονίζει ότι η συνολική παραγωγή της Cover Insurance φέτος σε σχέση με πέρυσι είναι αυξημένη τουλάχιστον κατά 15%, ...

Το νέο ΔΣ του ΕΙΑΣ

Συγκροτήθηκε σε σώμα το νέο Διοικητικό Συμβούλιο του Ελληνικού Ινστιτούτου Ασφαλιστικών Σπουδών, το οποίο εξελέγη από τη Γενική Συνέλευση

Μεγάλη επιτυχία για το σεμινάριο Επιχειρηματικών Ασφαλίσεων

Με ιδιαίτερη επιτυχία και εντυπωσιακή συμμετοχή πραγματοποιήθηκε την προηγούμενη εβδομάδα το εξειδικευμένο σεμινάριο Επιχειρηματικών Ασφαλίσεων

Δημοφιλή Άρθρα

Ροή Ειδήσεων

Οικοδόμηση ανθεκτικότητας στην Ανατολική Μεσόγειο

Καθώς η περιοχή της Ανατολικής Μεσογείου συνεχίζει να αντιμετωπίζει οικονομική αστάθεια, κανονιστικές αλλαγές και προκλήσεις που σχετίζονται

Greek Space Tech Forum 2025: Δυναμικό παρών δίνουν οι ελληνικές startup

Δυναμικό παρών στο Greek Space Tech Forum 2025 δίνουν ελληνικές startup που δραστηριοποιούνται στο ευρύτερο οικοσύστημα του διαστήματος

ΜΙΝΕΤΤΑ Ασφαλιστική: Πυροπροστασία και Ασφάλιση Περιουσίας. Εκπαίδευση Συνεργατών για τα σύγχρονα δεδομένα

Μια ξεχωριστή εκπαίδευση για τους συνεργάτες της, πραγματοποίησε η ΜΙΝΕΤΤΑ Ασφαλιστική στις αρχές Ιουνίου.

Insurance Conference 2025: Η Ασφαλιστική Αγορά σε Μετάβαση

Η ελληνική ασφαλιστική αγορά διανύει μια περίοδο μετάβασης και στρατηγικού μετασχηματισμού

16 δισεκατομμύρια κωδικοί από Apple, Google & Facebook εκτέθηκαν στο διαδίκτυο

Μια από τις μεγαλύτερες διαρροές δεδομένων όλων των εποχών...