Καλά εγκατεστημένη πλέον στην καρδιά του λογισμικού φαρμακείων, η Τεχνητή Νοημοσύνη (AI) ενοποιεί και επεκτείνει τις ενέργειες του φαρμακοποιού, αλλά δεν θα τον αντικαταστήσει. Πρέπει όμως να τεθεί το ερώτημα σχετικά με τις λεπτές ευθύνες που συνδέονται με τη χρήση της που φαίνονται να έχουν νομικές προκλήσεις.
Οι φαρμακοποιοί βρίσκονται «στο σταυροδρόμι» της τεχνητής νοημοσύνης στην υγεία, και είναι ταυτόχρονα δέκτες, παραγωγοί και χρήστες δεδομένων. Έχοντας γίνει « generative », η τεχνητή νοημοσύνη είναι ικανή από το 2023 να παράγει περιεχόμενο, να επεξεργάζεται έγγραφα και ν’ ανακαλύπτει νέες εφαρμογές, καθώς προχωρά. Για παράδειγμα, αποδεικνύεται πολύτιμη για την καταπολέμηση της απάτης και τον εντοπισμό ψευδών συνταγών, γιατί «ξέρει» να συγκρίνει τις τελευταίες με τις πραγματικές… με βάση όλα μοντέλα απάτης που μπόρεσε να αποθηκεύσει στη μνήμη της.
Μετά την πρώτη επένδυση στο back office, η τεχνητή νοημοσύνη γίνεται πλέον ένα βοήθημα για την ποιότητα και την ασφάλεια της παράδοσης φαρμάκων και με τη σύγκριση των συνταγών που παρουσιάζονται με τις κύριες βάσεις δεδομένων φαρμάκων.
Οι προετοιμασία αυτοματοποιημένων δόσεων φαρμάκων στα φαρμακεία, οι βιολογικές αναλύσεις ή οι ρομποτικές χειρουργικές επεμβάσεις, είναι ήδη σχεδόν αρχαίες τεχνικές και η τεχνητή νοημοσύνη θα επιτρέψει σύντομα τη ψηφιακή μοντελοποίηση φαρμάκων και τις εικονικές κλινικές δοκιμές, ενισχύοντας παράλληλα τη φαρμακοεπαγρύπνηση και την πρόληψη των φαρμακογεννών παρενεργειών. Στην ιατρική, ορισμένοι κλάδοι που κάνουν εκτενή χρήση της απεικόνισης, αποσκοπούν ιδιαίτερα στη χρήση της AI: αυτή είναι η περίπτωση της δερματολογίας, της ακτινολογίας και της οφθαλμολογίας, επιτρέποντας ειδικότερα ορισμένες εξετάσεις, συμπεριλαμβανομένης της διαβητικής αμφιβληστροειδοπάθειας, του καρκίνου του μαστού και των καρκίνων του δέρματος.
Ιατρικά chatbox
Έχουν ήδη δοκιμαστεί στο Ηνωμένο Βασίλειο υπό την αιγίδα του NHS, και σύντομα στην Πορτογαλία, τα ιατρικά «chatbox» που προσφέρουν μια πραγματική «διαβούλευση» μεταξύ ενός ασφαλισμένου ασθενή και ενός εικονικού «επαγγελματία υγείας» . Όλα αυτά αλλάζουν εντελώς τον ρόλο του φαρμακοποιού, είτε στην παραδοσιακή του σχέση με τους ασθενείς του, είτε στον τρόπο με τον οποίο τους υποστηρίζει σε μια ολοένα και πιο ψηφιοποιημένη οδό φροντίδας. Ομοίως, η παροχή και η χρήση των αρχείων ασθενών θα εξελιχθεί ριζικά, και αυτό πρέπει να θεωρείται περισσότερο ως «ευκαιρία» παρά ως απειλή για το επάγγελμα.
Ωστόσο, αυτές οι προοπτικές εγείρουν αμέτρητα ερωτήματα, ιδίως σχετικά με τα προβλήματα συλλογής δεδομένων και εμπιστευτικότητας, αλλά και, κυρίως, σχετικά με την ευθύνη των επαγγελματιών υγείας που χρησιμοποιούν τεχνητή νοημοσύνη για τον ορισμό ή τη βελτίωση μιας διάγνωσης ή θεραπείας.
Η τεχνητή νοημοσύνη στην υγεία ταξινομείται ως «υψηλού κινδύνου»
Ο ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη, που εγκρίθηκε τον Μάρτιο του 2024, απαντά εν μέρει σε αυτά τα διαφορετικά ερωτήματα, ενώ εισάγει πέντε επίπεδα κινδύνου και εγγύησης ανάλογα με τις αναμενόμενες επιπτώσεις της τεχνητής νοημοσύνης: δύσκολα θα προκαλέσει ατομικό και κοινωνικό κίνδυνο εάν στοχεύει μόνο, για παράδειγμα, να βελτιώσει ένα φίλτρο antispam, αλλά θα θεωρείται “απαράδεκτο” εάν συμβάλλει στη διάκριση εις βάρος ομάδων ατόμων ή στην ενθάρρυνση ρατσιστικών πράξεων. Σε αυτή την κλίμακα, η τεχνητή νοημοσύνη στην υγεία ταξινομείται ως «υψηλού επιπέδου κινδύνου», κάτι που απαιτεί αποτελεσματικό έλεγχο της λειτουργίας της.
Η τεχνητή νοημοσύνη δεν μπορεί να έχει τη δική της ηθική ή νομική ευθύνη, γιατί αυτή ανήκει πάντα στον επαγγελματία που τη χρησιμοποιεί. Ωστόσο, δεν μπορεί να αποκλειστεί ότι η τεχνητή νοημοσύνη «υπερβαίνει την αποστολή της» ή, πιο πεζά, δυσλειτουργεί και δημιουργεί σφάλματα.
Σε μια τέτοια περίπτωση, μπορεί να είναι δύσκολο να εκτιμηθεί η ευθύνη του χρήστη και του κατασκευαστή. Εάν γίνει κάποιο λάθος στον ασθενή , αυτό οφείλεται σε κακή χρήση της τεχνητής νοημοσύνης από τον επαγγελματία υγείας, ο οποίος μπορεί επίσης να της έχει αναθέσει πάρα πολλές εργασίες, ή η τεχνητή νοημοσύνη ήταν κακώς προγραμματισμένη ή κακώς σχεδιασμένη. Ο χρήστης θα μπορούσε ακόμη και να κατηγορηθεί για γνωστική προκατάληψη επειδή «πίστευε πάρα πολύ» σε αυτό που του είπε η AI.
Η τεχνητή νοημοσύνη στην υγεία θα δημιουργήσει νομικές συγκρούσεις
Η ευθύνη του κατασκευαστή είναι μια από τις βασικές αρχές του ευρωπαϊκού δικαίου, αλλά και του επαγγελματία… και επομένως όλοι θα πρέπει να αποδείξουν την αθωότητά τους σε περίπτωση προβλήματος. Με άλλα λόγια, η τεχνητή νοημοσύνη στην υγεία θα προκαλέσει νομικές συγκρούσεις, οι οποίες στη συνέχεια θα δημιουργήσουν νομολογίες που δεν υπάρχουν επί του παρόντος.
Πηγή: Le Quotidien du Pharmacien