MIT team at work

Η ομάδα του MIT διδάσκει σε μοντέλα τεχνητής νοημοσύνης ό,τι δεν γνώριζαν ακόμα.

Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και ενσωματώνεται όλο και περισσότερο στην καθημερινή μας ζωή και σε βιομηχανίες υψηλού κινδύνου, όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Αλλά με τη μεγάλη δύναμη έρχεται και η μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.

Το Themis AI του MIT, που συνιδρύθηκε και διευθύνεται από την καθηγήτρια Daniela Rus του εργαστηρίου CSAIL, προσφέρει μια πρωτοποριακή λύση. Η τεχνολογία τους επιτρέπει στα μοντέλα AI να «γνωρίζουν τι δεν γνωρίζουν». Αυτό σημαίνει ότι τα συστήματα AI μπορούν να υποδείξουν μόνα τους πότε είναι αβέβαια σχετικά με τις προβλέψεις τους, αποτρέποντας έτσι λάθη πριν προκαλέσουν ζημιά.

Γιατί είναι τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και προηγμένα, μπορούν μερικές φορές να εμφανίσουν τις λεγόμενες «ψευδαισθήσεις» — δίνουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε την Capsa, μια πλατφόρμα που εφαρμόζει την ποσοτικοποίηση της αβεβαιότητας: μετρά και ποσοτικοποιεί την αβεβαιότητα της παραγωγής AI με λεπτομερή και αξιόπιστο τρόπο.

 Πώς λειτουργεί;
Ενσωματώνοντας την επίγνωση της αβεβαιότητας στα μοντέλα, μπορούν να παρέχουν στις εξόδους μια ετικέτα κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτοοδηγούμενο αυτοκίνητο μπορεί να υποδείξει ότι δεν είναι σίγουρο για μια κατάσταση και επομένως να ενεργοποιήσει μια ανθρώπινη παρέμβαση. Αυτό όχι μόνο αυξάνει την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.

Παραδείγματα τεχνικής υλοποίησης

  • Κατά την ενσωμάτωση με το PyTorch, η περιτύλιξη του μοντέλου γίνεται μέσω του capsa_torch.wrapper(), όπου η έξοδος αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:

Python example met capsa

Για τα μοντέλα TensorFlow, η Capsa λειτουργεί με έναν διακοσμητή:

tensorflow

Ο αντίκτυπος για τις επιχειρήσεις και τους χρήστες
Για την NetCare και τους πελάτες της, αυτή η τεχνολογία σημαίνει ένα τεράστιο βήμα προς τα εμπρός. Μπορούμε να παρέχουμε εφαρμογές AI που δεν είναι μόνο έξυπνες, αλλά και ασφαλείς και πιο προβλέψιμες με λιγότερες πιθανότητες ψευδαισθήσεων. Βοηθά τους οργανισμούς να λαμβάνουν πιο τεκμηριωμένες αποφάσεις και να μειώνουν τους κινδύνους κατά την εισαγωγή της AI σε κρίσιμες για την επιχείρηση εφαρμογές.

Συμπέρασμα
Η ομάδα του MIT δείχνει ότι το μέλλον της AI δεν αφορά μόνο το να γίνει πιο έξυπνη, αλλά κυρίως το να λειτουργεί πιο ασφαλής και πιο δίκαιη. Στην NetCare πιστεύουμε ότι η AI γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής σχετικά με τους δικούς της περιορισμούς. Με προηγμένα εργαλεία ποσοτικοποίησης της αβεβαιότητας όπως η Capsa, μπορείτε να εφαρμόσετε αυτό το όραμα στην πράξη.

Gerard

Gerard

Ο Gerard δραστηριοποιείται ως σύμβουλος και διευθυντής τεχνητής νοημοσύνης. Με μεγάλη εμπειρία σε μεγάλους οργανισμούς, μπορεί να αναλύσει ένα πρόβλημα και να εργαστεί για την επίλυσή του εξαιρετικά γρήγορα. Σε συνδυασμό με το οικονομικό του υπόβαθρο, διασφαλίζει επιχειρηματικά υπεύθυντες επιλογές.

AIR (Artificial Intelligence Robot)