Το MIT διεξάγει έρευνα για να κάνει την AI εξυπνότερη

Η ομάδα του MIT διδάσκει στα μοντέλα AI όσα δεν γνώριζαν ακόμα.

Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και γίνεται όλο και πιο συνυφασμένη με την καθημερινή μας ζωή και κλάδους υψηλού διακυβεύματος, όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Όμως, με τη μεγάλη ισχύ έρχεται και μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.

Γιατί είναι αυτό τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και τα προηγμένα, μπορούν μερικές φορές να παρουσιάσουν τις λεγόμενες «παραισθήσεις»—δίνουν λανθασμένες ή ατεκμηρίωτες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε το Capsa, μια πλατφόρμα που εφαρμόζει ποσοτικοποίηση αβεβαιότητας (uncertainty quantification): μετρά και ποσοτικοποιεί την αβεβαιότητα της εξόδου του AI με λεπτομερή και αξιόπιστο τρόπο.

 Πώς λειτουργεί;
Ενισχύοντας τα μοντέλα με επίγνωση της αβεβαιότητας (uncertainty awareness), μπορούν να συνοδεύουν τις εξόδους τους με μια ετικέτα κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτοκινούμενο όχημα μπορεί να υποδείξει ότι δεν είναι βέβαιο για μια κατάσταση και επομένως να ενεργοποιήσει ανθρώπινη παρέμβαση. Αυτό αυξάνει όχι μόνο την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.

Παραδείγματα τεχνικής υλοποίησης
  • Κατά την ενσωμάτωση με το PyTorch, το wrapping του μοντέλου γίνεται μέσω capsa_torch.wrapper() όπου η έξοδος αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:
Python example met capsa
Για μοντέλα TensorFlow, το Capsa λειτουργεί με έναν decorator:
tensorflow
Ο αντίκτυπος για τις επιχειρήσεις και τους χρήστες
Για τη NetCare και τους πελάτες της, αυτή η τεχνολογία σημαίνει ένα τεράστιο βήμα προς τα εμπρός. Μπορούμε να παρέχουμε εφαρμογές AI που δεν είναι μόνο ευφυείς, αλλά και ασφαλείς και πιο προβλέψιμες, με λιγότερες πιθανότητες για παραισθήσεις. Βοηθά τους οργανισμούς να λαμβάνουν καλύτερα τεκμηριωμένες αποφάσεις και να μειώνουν τους κινδύνους κατά την εισαγωγή του AI σε κρίσιμες επιχειρηματικές εφαρμογές.

Συμπέρασμα
Το MIT ομάδα δείχνει ότι το μέλλον του AI δεν αφορά μόνο το να γίνεται εξυπνότερο, αλλά κυρίως το να λειτουργεί με ασφάλεια και δικαιοσύνη. Στη NetCare πιστεύουμε ότι το AI γίνεται πραγματικά πολύτιμο μόνο όταν είναι διαφανές σχετικά με τους δικούς του περιορισμούς. Με προηγμένα εργαλεία ποσοτικοποίησης αβεβαιότητας όπως το Capsa, μπορείτε να εφαρμόσετε αυτό το όραμα στην πράξη.

Gerard

Ο Gerard είναι ενεργός ως σύμβουλος AI και διευθυντής. Με μεγάλη εμπειρία σε μεγάλους οργανισμούς, μπορεί να αποσαφηνίσει ένα πρόβλημα ιδιαίτερα γρήγορα και να εργαστεί προς μια λύση. Συνδυάζοντας οικονομικό υπόβαθρο, εξασφαλίζει επιχειρηματικές υπεύθυνες επιλογές.