MIT doet onderzoek om AI slimmer te maken

Η ομάδα του MIT διδάσκει στα μοντέλα AI όσα δεν γνώριζαν.

Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και γίνεται ολοένα και πιο ενσωματωμένη στην καθημερινή μας ζωή και σε βιομηχανίες υψηλού ρίσκου όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Αλλά με μεγάλη δύναμη έρχεται και μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.

Το Themis AI του MIT, που ιδρύθηκε και ηγείται εν μέρει από την καθηγήτρια Daniela Rus από το εργαστήριο CSAIL, προσφέρει μια πρωτοποριακή λύση. Η τεχνολογία τους δίνει τη δυνατότητα στα μοντέλα AI να «γνωρίζουν όσα δεν γνωρίζουν». Αυτό σημαίνει ότι τα συστήματα AI μπορούν να υποδεικνύουν πότε είναι αβέβαια για τις προβλέψεις τους, αποτρέποντας έτσι λάθη προτού προκαλέσουν ζημία.

Γιατί αυτό είναι τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και προηγμένα, μπορούν να εμφανίσουν τις λεγόμενες «παραληρήσεις» (hallucinations) —δίνουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Το Themis AI ανέπτυξε το Capsa, μια πλατφόρμα που εφαρμόζει ποσοτικοποίηση της αβεβαιότητας (uncertainty quantification): μετράει και ποσοτικοποιεί την αβεβαιότητα της εξόδου του AI με λεπτομερή και αξιόπιστο τρόπο.

 Πώς λειτουργεί;
Μαθαίνοντας στα μοντέλα awareness της αβεβαιότητας, μπορούν να προσθέτουν στις εξόδους τους ετικέτες κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτόνομο όχημα μπορεί να δείξει ότι δεν είναι βέβαιο για μια κατάσταση και να ενεργοποιήσει ανθρώπινη παρέμβαση. Αυτό αυξάνει όχι μόνο την ασφάλεια αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.

Παραδείγματα τεχνικής υλοποίησης

  • Κατά την ενσωμάτωση με το PyTorch, το περιτύλιγμα (wrapping) του μοντέλου γίνεται μέσω capsa_torch.wrapper() όπου η έξοδος αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:

Python example met capsa

Για μοντέλα TensorFlow, το Capsa λειτουργεί με έναν decorator:

tensorflow

Ο αντίκτυπος για επιχειρήσεις και χρήστες
Για την NetCare και τους πελάτες της, αυτή η τεχνολογία αποτελεί ένα τεράστιο βήμα προόδου. Μπορούμε να παρέχουμε εφαρμογές AI που δεν είναι μόνο έξυπνες, αλλά και ασφαλείς και πιο προβλέψιμες με μικρότερη πιθανότητα παραληρήσεων. Βοηθά τις οργανώσεις να λαμβάνουν καλύτερα τεκμηριωμένες αποφάσεις και να μειώνουν τους κινδύνους κατά την εισαγωγή της AI σε επιχειρησιακές κρίσιμες εφαρμογές.

Συμπέρασμα
Το MIT ομάδα Δείχνει ότι το μέλλον της AI δεν αφορά μόνο το να γίνει πιο έξυπνη, αλλά κυρίως το να λειτουργεί με πιο ασφαλή και δίκαιο τρόπο. Στην NetCare πιστεύουμε ότι η AI γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής ως προς τους ίδιους τους περιορισμούς της. Με εξελιγμένα εργαλεία ποσοτικοποίησης αβεβαιότητας όπως το Capsa, μπορείτε να εφαρμόσετε αυτή την οπτική στην πράξη.

Gerard

Ο Gerard δρα ως σύμβουλος και διευθυντής AI. Με μεγάλη εμπειρία σε μεγάλους οργανισμούς μπορεί πολύ γρήγορα να αποσαφηνίσει ένα πρόβλημα και να το οδηγήσει σε λύση. Σε συνδυασμό με οικονομικό υπόβαθρο, εξασφαλίζει επιχειρηματικά υπεύθυνες επιλογές.