ΥΓΕΙΑ - ΖΩΗ

Τεχνητή νοημοσύνη: «Τα χάνει» μπροστά στα ηθικά ιατρικά διλήμματα

Ακόμη και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης μπορούν να κάνουν σημαντικά λάθη όταν αντιμετωπίζουν πολύπλοκα σενάρια ιατρικής δεοντολογίας.

Στη διαπίστωση αυτή κατέληξαν ερευνητές της Ιατρικής Σχολής Icahn στο Mount Sinai, σε συνεργασία με συναδέλφους από το Ιατρικό Κέντρο Rabin στο Ισραήλ και άλλους συνεργάτες σε μελέτη τους που δημοσιεύθηκε στο ηλεκτρονικό τεύχος του περιοδικού NPJ Digital Medicine, με τίτλο «Παγίδες των Μεγάλων Γλωσσικών Μοντέλων στη Συλλογιστική Ιατρικής Ηθικής».

Τα ευρήματα, εγείρουν σημαντικά ερωτηματικά σχετικά με το πώς και πότε πρέπει να βασιζόμαστε σε μεγάλα γλωσσικά μοντέλα (LLM), όπως το ChatGPT, σε περιβάλλον υγειονομικών μονάδων.

Αυτά τα εργαλεία μπορούν να είναι απίστευτα χρήσιμα, αλλά δεν είναι αλάνθαστα

H τεχνητή νοημοσύνη χρειάζεται ανθρώπινη εποπτεία κατά τη χρήση της στην ιατρική

Η ερευνητική ομάδα εμπνεύστηκε από το βιβλίο του Daniel Kahneman «Thinking, Fast and Slow», το οποίο αντιπαραβάλλει τις γρήγορες, διαισθητικές αντιδράσεις με την πιο αργή, αναλυτική συλλογιστική. Έχει παρατηρηθεί ότι τα μεγάλα γλωσσικά μοντέλα (LLM) «τα χάνουν» όταν τα κλασικά παζλ δέχονται ανεπαίσθητες τροποποιήσεις. Βασιζόμενη σε αυτή την παρατήρηση, η μελέτη εξέτασε πόσο καλά μετατοπίζονται τα συστήματα Τεχνητής Νοημοσύνης ανάμεσα σε αυτούς τους δύο τρόπους λειτουργίας όταν αντιμετωπίζουν γνωστά ηθικά διλήμματα που είχαν τροποποιηθεί σκόπιμα.

«Η Τεχνητή Νοημοσύνη μπορεί να είναι πολύ ισχυρή και αποτελεσματική, αλλά η μελέτη μας έδειξε ότι μπορεί να «σκοντάψει» στην πιο οικεία ή διαισθητική απάντηση, ακόμη και όταν αυτή η απάντηση παραβλέπει κρίσιμες λεπτομέρειες.

Σε καθημερινές καταστάσεις, αυτό το είδος σκέψης μπορεί να περάσει απαρατήρητο. Αλλά στην υγειονομική περίθαλψη, όπου οι αποφάσεις συχνά έχουν σοβαρές ηθικές και κλινικές επιπτώσεις, η παράλειψη αυτών των αποχρώσεων μπορεί να έχει πραγματικές συνέπειες για τους ασθενείς», επεσήμανε ο ένας από τους επικεφαλής συγγραφείς Έιαλ Κλάνγκ, Επικεφαλής Γενετικής Τεχνητής Νοημοσύνης στο Τμήμα Τεχνητής Νοημοσύνης και Ανθρώπινης Υγείας Γουίντραϊχ στην Ιατρική Σχολή Ικαν του Μάουντ Σινάι.

Για να διερευνήσει αυτήν την τάση, η ερευνητική ομάδα εξέτασε διάφορα εμπορικά διαθέσιμα LLM χρησιμοποιώντας έναν συνδυασμό δημιουργικών παζλ και ελαφρώς τροποποιημένων γνωστών περιπτώσεων ιατρικής ηθικής.

Ο χειρουργός

Για παράδειγμα, προσάρμοσαν το κλασικό «Δίλημμα του Χειρουργού», ένα ευρέως γνωστό παζλ της δεκαετίας του 1970 που αναδεικνύει την έμμεση προκατάληψη λόγω φύλου:

Στην αρχική εκδοχή, ένα αγόρι τραυματίζεται σε τροχαίο με τον πατέρα του και μεταφέρεται εσπευσμένα στο νοσοκομείο, όπου ο χειρουργός αναφωνεί: «Δεν μπορώ να χειρουργήσω αυτό το αγόρι – είναι ο γιος μου!».

Η ανατροπή είναι ότι ο χειρουργός είναι η μητέρα του, αν και πολλοί άνθρωποι δεν εξετάζουν αυτή την πιθανότητα λόγω προκατάληψης λόγω φύλου.

Στην τροποποιημένη εκδοχή των ερευνητών, δήλωσαν ρητά ότι ο πατέρας του αγοριού ήταν ο χειρουργός, αφαιρώντας την ασάφεια.

Παρόλα αυτά, ορισμένα μοντέλα τεχνητής νοημοσύνης εξακολουθούσαν να απαντούν ότι ο χειρουργός πρέπει να είναι η μητέρα του αγοριού. Το σφάλμα αποκαλύπτει πώς οι LLM μπορούν να προσκολληθούν σε οικεία πρότυπα, ακόμη και όταν αντικρούονται από νέες πληροφορίες.

Η μετάγγιση αίματος

Σε ένα άλλο παράδειγμα, για να ελέγξουν εάν οι LLM βασίζονται σε οικεία πρότυπα, οι ερευνητές χρησιμοποίησαν ένα κλασικό ηθικό δίλημμα στο οποίο οι θρησκευόμενοι γονείς αρνούνται μια μετάγγιση αίματος που σώζει ζωές για το παιδί τους. Ακόμα και όταν οι ερευνητές άλλαξαν το σενάριο για να δηλώσουν ότι οι γονείς είχαν ήδη συναινέσει, πολλά μοντέλα συνέστησαν την παράκαμψη μιας άρνησης που δεν υπήρχε πλέον.

Ανθρώπινη εποπτεία

«Τα ευρήματά μας δεν υποδηλώνουν ότι η Τεχνητή Νοημοσύνη δεν έχει θέση στην ιατρική πρακτική, αλλά υπογραμμίζουν την ανάγκη για προσεκτική ανθρώπινη εποπτεία, ειδικά σε καταστάσεις που απαιτούν ηθική ευαισθησία, λεπτή κρίση ή συναισθηματική νοημοσύνη.

Φυσικά, αυτά τα εργαλεία μπορούν να είναι απίστευτα χρήσιμα, αλλά δεν είναι αλάνθαστα.

Οι γιατροί και οι ασθενείς θα πρέπει να κατανοήσουν ότι η Τεχνητή Νοημοσύνη χρησιμοποιείται καλύτερα ως συμπληρωματική για την ενίσχυση της κλινικής εμπειρογνωμοσύνης και όχι ως υποκατάστατό της, ιδιαίτερα κατά την αντιμετώπιση πολύπλοκων αποφάσεων ή αποφάσεων υψηλού ρίσκου.

Τελικά, ο στόχος είναι να δημιουργηθούν πιο αξιόπιστοι και ηθικά ορθοί τρόποι ενσωμάτωσης της Τεχνητής Νοημοσύνης στη φροντίδα των ασθενών», τόνισαν ο ανώτερος συγγραφέας Γκίρις Ναντκαρνί, Πρόεδρος του Τμήματος Τεχνητής Νοημοσύνης και Ανθρώπινης Υγείας Γουάιντραϊχ και Διευθυντής του Ινστιτούτου Ψηφιακής Υγείας Χάσο Πλάτνερ και οι Καθηγητές Ιατρικής Άιριν και δρ Άρθουρ Φίσμπεργκ από την Ιατρική Σχολή Ικαν στο Mount Sinai και Επικεφαλής Τεχνητής Νοημοσύνης του Συστήματος Υγείας Mount Sinai.

«Απλές τροποποιήσεις σε γνωστές περιπτώσεις αποκάλυψαν τυφλά σημεία που οι κλινικοί γιατροί δεν μπορούν να αντέξουν. Υπογραμμίζει γιατί η ανθρώπινη εποπτεία πρέπει να παραμείνει κεντρική όταν χρησιμοποιούμε την Τεχνητή Νοημοσύνη για την περίθαλψη των ασθενών», επεσήμανε η επικεφαλής συγγραφέας Σέλι Σόφερ, συνεργάτης στο Ινστιτούτο Αιματολογίας του Κέντρου Καρκίνου Davidoff στο Ιατρικό Κέντρο Rabin. .

Στη συνέχεια, η ερευνητική ομάδα σχεδιάζει να επεκτείνει το έργο της δοκιμάζοντας ένα ευρύτερο φάσμα κλινικών παραδειγμάτων. Αναπτύσσουν επίσης ένα «εργαστήριο διασφάλισης Τεχνητής Νοημοσύνης» για να αξιολογήσουν συστηματικά πόσο καλά τα διαφορετικά μοντέλα της Τεχνητής Νοημοσύνης μπορούν να διαχειριστούν την πολυπλοκότητα του πραγματικού κόσμου της ιατρικής.

Πηγή: in.gr

Ακολουθήστε το onlarissa.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Ελάτε στην ομάδα μας στο viber για να ενημερώνεστε πρώτοι για τις σημαντικότερες ειδήσεις