Η Meta «βλέπει» τις εικόνες που σκέφτεσαι με την βοήθεια της Τεχνητής Νοημοσύνης

8


Στο όχι και τόσο μακρινό μέλλον, οι αλληλεπιδράσεις με τους υπολογιστές μπορεί να ξεπεράσουν τα όρια των οθονών αφής και των πληκτρολογίων, ακόμη και τα μάτια και τις χειρονομίες, και να μεταφερθούν στο εσωτερικό του ίδιου μας του εγκεφάλου. Οι ερευνητές της Meta ανακοίνωσαν το Image Decoder, μια νέα εφαρμογή deep learning βασισμένη στο ανοιχτού κώδικα μοντέλο DINOv2, που μεταφράζει την εγκεφαλική δραστηριότητα σε εξαιρετικά ακριβείς εικόνες του τι κοιτάζει ή σκέφτεται ο χρήστης σχεδόν σε πραγματικό χρόνο.

Με απλά λόγια, αν ένας ερευνητής της Meta καθόταν σε ένα δωμάτιο και δεν μπορούσε να δει τον εξεταζόμενο, ακόμη και αν αυτός βρισκόταν στην άλλη άκρη του κόσμου, το Image Decoder θα του επέτρεπε να δει τι κοιτούσε ή τι φανταζόταν ο εξεταζόμενος, με βάση την εγκεφαλική του δραστηριότητα – με την προϋπόθεση ότι ο εξεταζόμενος βρισκόταν σε μια εγκατάσταση νευροαπεικόνισης και υποβαλλόταν σε σάρωση από ένα μηχάνημα MEG.

Η Meta αναφέρει χαρακτηριστικά ότι 

Η έρευνα μας συμβάλλει στην ενίσχυση της μακροπρόθεσμης ερευνητικής πρωτοβουλίας της εταιρείας για την κατανόηση των θεμελίων της ανθρώπινης νοημοσύνης, τον εντοπισμό των ομοιοτήτων και των διαφορών της σε σχέση με τους σημερινούς αλγορίθμους μηχανικής μάθησης και, εν τέλει, τη δημιουργία συστημάτων τεχνητής νοημοσύνης με τη δυνατότητα να μαθαίνουν και να σκέφτονται όπως οι άνθρωποι.

Πως λειτουργεί το Image Decoder

Ουσιαστικά συνδυάζει δύο, μέχρι στιγμής, σε μεγάλο βαθμό ανόμοια πεδία: τη μηχανική μάθηση, όπου ένας υπολογιστής εκπαιδεύεται αναλύοντας χαρακτηρισμένα δεδομένα και στη συνέχεια εξετάζοντας τα νέα δεδομένα προσπαθώντας να τα ταξινομήσει σωστά, και τη μαγνητοεγκεφαλογραφία (MEG), ένα σύστημα που μετρά και καταγράφει την εγκεφαλική δραστηριότητα μη επεμβατικά χρησιμοποιώντας όργανα που ανιχνεύουν τις μικροσκοπικές αλλαγές στα μαγνητικά πεδία του εγκεφάλου καθώς ένα άτομο σκέφτεται.

Οι ερευνητές της Meta εκπαίδευσαν αλγόριθμους deep learning σε 63.000 προηγούμενα αποτελέσματα MEG από τέσσερις ασθενείς (δύο γυναίκες και δύο άνδρες με μέση ηλικία 23 ετών) σε 12 συνεδρίες, στις οποίες οι ασθενείς είδαν 22.448 μοναδικές εικόνες και 200 επαναλαμβανόμενες εικόνες από την αρχική βάση.

Στη συνέχεια, η ομάδα αξιοποίησε το DINOv2, ένα μοντέλο αυτοεπιβλεπόμενης μάθησης που σχεδιάστηκε για την εκπαίδευση άλλων μοντέλων και το οποίο το ίδιο εκπαιδεύτηκε με τοπία από δάση της Βόρειας Αμερικής. Οι ερευνητές έδωσαν εντολή στον αλγόριθμο Image Decoder να εξετάσει τόσο αυτά τα ακατέργαστα δεδομένα, όσο και μια εικόνα από αυτό που έβλεπε στην πραγματικότητα το άτομο όταν ο εγκέφαλός του εξεταζόταν με MEG.

Συγκρίνοντας τα δεδομένα της MEG με την πραγματική εικόνα της πηγής, ο αλγόριθμος έμαθε να αποκρυπτογραφεί ποια συγκεκριμένα σχήματα και χρώματα αναπαρίστανται στον εγκέφαλο και με ποιον τρόπο.

Αποτελέσματα και Ηθικά Διλήμματα

Αν και το σύστημα Image Decoder απέχει πολύ από την τελειότητα, οι ερευνητές είναι αισιόδοξοι από τα αποτελέσματα, καθώς πέτυχε επίπεδα ακρίβειας 70% στις περιπτώσεις με τις υψηλότερες επιδόσεις όσον αφορά την ακριβή ανάκτηση ή αναδημιουργία μιας εικόνας με βάση τα δεδομένα της MEG, επτά φορές καλύτερα από τις υπάρχουσες μεθόδους.

Ορισμένες από τις εικόνες που ανακτήθηκαν επιτυχώς από μια συλλογή πιθανών εικόνων ήταν μεταξύ άλλων εικόνες από μπρόκολα, κάμπιες και ηχεία. Η αποκωδικοποίηση πιο σύνθετων και ποικιλόμορφων εικόνων, όπως τάκος, γουακαμόλε και φασόλια, ήταν λιγότερο επιτυχής.

«Συνολικά, τα ευρήματά μας σκιαγραφούν μια πολλά υποσχόμενη οδό για την αποκωδικοποίηση οπτικών αναπαραστάσεων σε πραγματικό χρόνο στο εργαστήριο και στην κλινική», γράφουν οι ερευνητές. Ωστόσο, σημείωσαν ότι η τεχνολογία θέτει «αρκετά ηθικά ζητήματα», καθώς το να μπορεί κανείς να κοιτάξει μέσα στο μυαλό ενός ατόμου είναι ένα νέο επίπεδο επεμβατικότητας που η τεχνολογία δεν έχει ακόμη επιτύχει σε μεγάλη κλίμακα.

Μεταξύ των ηθικών προβληματισμών που θέτουν οι ερευνητές είναι «η ανάγκη διατήρησης της ψυχικής ιδιωτικότητας», αν και δεν αναφέρουν ακριβώς πώς θα επιτευχθεί αυτό.

[Meta]

*Ακολουθήστε το Techgear.gr στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα!



Πηγή