Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και ενσωματώνεται όλο και περισσότερο στην καθημερινή μας ζωή και σε βιομηχανίες υψηλού κινδύνου, όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Αλλά με τη μεγάλη δύναμη έρχεται και η μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.
Το Themis AI του MIT, που συνιδρύθηκε και διευθύνεται από την καθηγήτρια Daniela Rus του εργαστηρίου CSAIL, προσφέρει μια πρωτοποριακή λύση. Η τεχνολογία τους επιτρέπει στα μοντέλα AI να «γνωρίζουν τι δεν γνωρίζουν». Αυτό σημαίνει ότι τα συστήματα AI μπορούν να υποδείξουν μόνα τους πότε είναι αβέβαια σχετικά με τις προβλέψεις τους, αποτρέποντας έτσι λάθη πριν προκαλέσουν ζημιά.
Γιατί είναι τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και προηγμένα, μπορούν μερικές φορές να εμφανίσουν τις λεγόμενες «ψευδαισθήσεις» — δίνουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε την Capsa, μια πλατφόρμα που εφαρμόζει την ποσοτικοποίηση της αβεβαιότητας: μετρά και ποσοτικοποιεί την αβεβαιότητα της παραγωγής AI με λεπτομερή και αξιόπιστο τρόπο.
Πώς λειτουργεί;
Ενσωματώνοντας την επίγνωση της αβεβαιότητας στα μοντέλα, μπορούν να παρέχουν στις εξόδους μια ετικέτα κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτοοδηγούμενο αυτοκίνητο μπορεί να υποδείξει ότι δεν είναι σίγουρο για μια κατάσταση και επομένως να ενεργοποιήσει μια ανθρώπινη παρέμβαση. Αυτό όχι μόνο αυξάνει την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.
capsa_torch.wrapper()
, όπου η έξοδος αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:
Συμπέρασμα
Η ομάδα του MIT δείχνει ότι το μέλλον της AI δεν αφορά μόνο το να γίνει πιο έξυπνη, αλλά κυρίως το να λειτουργεί πιο ασφαλής και πιο δίκαιη. Στην NetCare πιστεύουμε ότι η AI γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής σχετικά με τους δικούς της περιορισμούς. Με προηγμένα εργαλεία ποσοτικοποίησης της αβεβαιότητας όπως η Capsa, μπορείτε να εφαρμόσετε αυτό το όραμα στην πράξη.