Το MIT διεξάγει έρευνα για να κάνει το AI πιο έξυπνο

Η ομάδα του MIT διδάσκει μοντέλα AI όσα δεν ήξεραν ακόμη.

Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται γρήγορα και ενσωματώνεται όλο και περισσότερο στην καθημερινή μας ζωή και σε βιομηχανίες υψηλού κινδύνου όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Αλλά με τη μεγάλη δύναμη έρχεται και μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορούν να έχουν σοβαρές συνέπειες.

Γιατί είναι τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και προχωρημένα, μπορούν μερικές φορές να παρουσιάσουν τις λεγόμενες «ψευδαισθήσεις» — παρέχουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε το Capsa, μια πλατφόρμα που εφαρμόζει την ποσοτικοποίηση αβεβαιότητας: μετρά και ποσοτικοποιεί την αβεβαιότητα των εξόδων AI με λεπτομερή και αξιόπιστο τρόπο.

 Πώς λειτουργεί;
Ενσωματώνοντας στα μοντέλα την ευαισθητοποίηση για την αβεβαιότητα, μπορούν να εφοδιάσουν τις εξόδους με ετικέτα κινδύνου ή αξιοπιστίας. Για παράδειγμα, ένα αυτόνομο όχημα μπορεί να υποδείξει ότι δεν είναι σίγουρο για μια κατάσταση και έτσι να ενεργοποιήσει ανθρώπινη παρέμβαση. Αυτό αυξάνει όχι μόνο την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.

Παραδείγματα τεχνικής υλοποίησης
  • Κατά την ενσωμάτωση με το PyTorch, η διαδικασία περιλαμβάνει το περιτύλιγμα του μοντέλου μέσω capsa_torch.wrapper() όπου η έξοδος αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:
Python example met capsa
Για μοντέλα TensorFlow, το Capsa λειτουργεί με έναν διακοσμητή:
TensorFlow
Η επίδραση για τις επιχειρήσεις και τους χρήστες
Για τη NetCare και τους πελάτες της, αυτή η τεχνολογία σημαίνει ένα τεράστιο βήμα μπροστά. Μπορούμε να παρέχουμε εφαρμογές AI που δεν είναι μόνο έξυπνες, αλλά και ασφαλείς και πιο προβλέψιμες, με μειωμένη πιθανότητα ψευδαισθήσεων. Βοηθά τις οργανώσεις να λαμβάνουν καλύτερα τεκμηριωμένες αποφάσεις και να μειώνουν τους κινδύνους κατά την ενσωμάτωση της AI σε κρίσιμες επιχειρηματικές εφαρμογές.

Συμπέρασμα
Το MIT ομάδα δείχνει ότι το μέλλον της AI δεν αφορά μόνο το να γίνεται πιο έξυπνη, αλλά κυρίως να λειτουργεί πιο ασφαλώς και δίκαια. Στη NetCare πιστεύουμε ότι η AI γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής σχετικά με τους δικούς της περιορισμούς. Με προχωρημένα εργαλεία ποσοτικοποίησης αβεβαιότητας όπως το Capsa, μπορείτε να μεταφέρετε αυτήν την όραση στην πράξη.

Gerard

Ο Gerard δραστηριοποιείται ως σύμβουλος και διευθυντής AI. Με μεγάλη εμπειρία σε μεγάλους οργανισμούς, μπορεί να αποσαφηνίσει ένα πρόβλημα ιδιαίτερα γρήγορα και να εργαστεί προς μια λύση. Συνδυάζοντας αυτό με οικονομικό υπόβαθρο, εξασφαλίζει επιχειρηματικά υπεύθυνες επιλογές.