Το MIT διεξάγει έρευνα για να κάνει την τεχνητή νοημοσύνη πιο έξυπνη

Ομάδα του MIT διδάσκει σε μοντέλα AI όσα δεν γνώριζαν ακόμα.

Η εφαρμογή της τεχνητής νοημοσύνης (AI) αναπτύσσεται ραγδαία και γίνεται όλο και πιο συνυφασμένη με την καθημερινή μας ζωή και κλάδους υψηλού ρίσκου, όπως η υγειονομική περίθαλψη, οι τηλεπικοινωνίες και η ενέργεια. Όμως, με τη μεγάλη ισχύ έρχεται και μεγάλη ευθύνη: τα συστήματα AI μερικές φορές κάνουν λάθη ή δίνουν αβέβαιες απαντήσεις που μπορεί να έχουν σοβαρές συνέπειες.

Γιατί είναι αυτό τόσο σημαντικό;
Πολλά μοντέλα AI, ακόμη και τα προηγμένα, μπορούν μερικές φορές να παρουσιάσουν τις λεγόμενες «παραισθήσεις»—δίνουν λανθασμένες ή αβάσιμες απαντήσεις. Σε τομείς όπου οι αποφάσεις έχουν μεγάλο βάρος, όπως η ιατρική διάγνωση ή η αυτόνομη οδήγηση, αυτό μπορεί να έχει καταστροφικές συνέπειες. Η Themis AI ανέπτυξε το Capsa, μια πλατφόρμα που εφαρμόζει ποσοτικοποίηση αβεβαιότητας (uncertainty quantification): μετρά και ποσοτικοποιεί την αβεβαιότητα των αποτελεσμάτων της AI με λεπτομερή και αξιόπιστο τρόπο.

 Πώς λειτουργεί;
Ενισχύοντας τα μοντέλα με επίγνωση της αβεβαιότητας (uncertainty awareness), μπορούν να συνοδεύουν τις εξόδους τους με μια ένδειξη κινδύνου ή αξιοπιστίας. Για παράδειγμα: ένα αυτοκινούμενο όχημα μπορεί να υποδείξει ότι δεν είναι βέβαιο για μια κατάσταση και επομένως να ενεργοποιήσει ανθρώπινη παρέμβαση. Αυτό αυξάνει όχι μόνο την ασφάλεια, αλλά και την εμπιστοσύνη των χρηστών στα συστήματα AI.

Παραδείγματα τεχνικής υλοποίησης
  • Κατά την ενσωμάτωση με το PyTorch, το wrapping του μοντέλου γίνεται μέσω capsa_torch.wrapper() όπου το αποτέλεσμα αποτελείται τόσο από την πρόβλεψη όσο και από τον κίνδυνο:
Python example met capsa
Για τα μοντέλα TensorFlow, το Capsa λειτουργεί με έναν decorator:
tensorflow
Ο αντίκτυπος για τις επιχειρήσεις και τους χρήστες
Για τη NetCare και τους πελάτες της, αυτή η τεχνολογία αποτελεί ένα τεράστιο βήμα προόδου. Μπορούμε να παρέχουμε εφαρμογές τεχνητής νοημοσύνης που δεν είναι μόνο ευφυείς, αλλά και ασφαλείς και πιο προβλέψιμες, με λιγότερες πιθανότητες για «παραισθήσεις» (hallucinations). Αυτό βοηθά τους οργανισμούς να λαμβάνουν πιο τεκμηριωμένες αποφάσεις και να μειώνουν τους κινδύνους κατά την εισαγωγή της τεχνητής νοημοσύνης σε κρίσιμες για την επιχείρηση εφαρμογές.

Συμπέρασμα
Το MIT ομάδα δείχνει ότι το μέλλον της AI δεν αφορά μόνο το να γίνεται εξυπνότερη, αλλά κυρίως το να λειτουργεί με ασφάλεια και δικαιοσύνη. Στη NetCare πιστεύουμε ότι η AI γίνεται πραγματικά πολύτιμη μόνο όταν είναι διαφανής σχετικά με τους δικούς της περιορισμούς. Με προηγμένα εργαλεία ποσοτικοποίησης αβεβαιότητας όπως το Capsa, μπορείτε να εφαρμόσετε αυτό το όραμα στην πράξη.

Γεράρδος

Ο Gerard δραστηριοποιείται ως σύμβουλος και διευθυντής AI. Με μεγάλη εμπειρία σε μεγάλους οργανισμούς, μπορεί να αναλύσει ένα πρόβλημα εξαιρετικά γρήγορα και να εργαστεί προς την επίλυσή του. Σε συνδυασμό με το οικονομικό του υπόβαθρο, διασφαλίζει επιχειρηματικά ορθές επιλογές.