fbpx

Αυτόνομη οδήγηση: Να γιατί ο ΚΙΤΤ αργεί πολύ ακόμα!

Αυτόνομη οδήγηση: Να γιατί ο ΚΙΤΤ αργεί πολύ ακόμα!

Έχουν περάσει 38 χρόνια από την δημοφιλή σειρά «Ο ιππότης της ασφάλτου» που έκανε το ντεμπούτο της το 1982, και παρά τις μεγάλες προσδοκίες και ανακοινώσεις εταιριών όπως η General Motors, η Waymo της Google, η Τoyota και η Τesla δεν έχουμε ακόμη φθάσει στην εποχή των αυτοκινήτων χωρίς οδηγό.

Το ερώτημα είναι: Γιατί;

Όσον αφορά στα αυτόνομα οχήματα αλλά και για κάθε σύστημα που χρησιμοποιεί τεχνητή νοημοσύνη, η εξίσωση είναι συγκεκριμένη: περισσότερα δεδομένα προς εκπαίδευση σημαίνει αποτελεσματικότερα και εξυπνότερα συστήματα τεχνητής νοημοσύνης.

 

ΔΙΑΒΑΣΕ ΑΚΟΜΑ: Αν επισκευάζεις εσύ το αυτοκίνητο σου, μάθε γιατί τελικά θα σου κοστίζει περισσότερο!

 

Εδώ βρίσκεται όμως και μέρος του προβλήματος με τα αυτόνομα αυτοκίνητα: Xρειαζόμαστε μεγάλο όγκο δεδομένων για να μάθει και να αναπτύξει ένα σύστημα καλή οδηγική συμπεριφορά. Αυτό αφ’ ενός είναι κοστοβόρο αφ’ ετέρου τα δεδομένα δεν είναι τόσα πολλά για τις λιγότερο πιθανές περιπτώσεις που συναντάμε στην πραγματική ζωή όπως αν ένα αυτόματο όχημα βρεθεί μπροστά σε ένα δυστύχημα ή σε συντρίμμια.

Οι εταιρίες κατασκευής έχουν προσπαθήσει να βρουν λύση με το να εκπαιδεύουν τα αυτοκίνητα μέσω προσομοιώσεων, επενδύοντας σε πραγματικά χιλιόμετρα. Η πρόοδος όμως είναι αργή με αρκετούς σκεπτικιστές για το μέλλον των αυτόνομων αυτοκινήτων, συμπεριλαμβανομένου και του διευθύνοντα συμβούλου της Volkswagen να θεωρούν ότι τα πλήρως αυτόνομα αυτοκίνητα μπορεί να μην έρθουν ποτέ.

Επίσης ένα άλλο σημαντικό πρόβλημα είναι οι ίδιοι οι δρόμοι: Tι γίνεται όταν η σήμανση στους δρόμους αλλάζει ανά χώρα και ανά περίπτωση; Πώς πρέπει τα αυτόνομα αυτοκίνητα να προσαρμόζονται σε διαφορετικούς δρόμους κάθε φορά;

 

Είναι τα αυτόνομα οχήματα όντως ασφαλή;

Το 2018, ένα θανατηφόρο δυστύχημα με αυτοκίνητο της Uber έθεσε επί τάπητος το ερώτημα αν όντως τα αυτόματα οχήματα είναι ασφαλή. Στην περίπτωση της Uber, το θύμα ήταν η 49χρονη Εlaine Herzber, η οποία χτυπήθηκε καθώς διέσχιζε τον δρόμο με το ποδήλατο της στην πόλη Τέμπε της Aριζόνα.

Το δυστύχημα συνέβη επειδή το σύστημα της Uber ήταν σχεδιασμένο με τρόπο που να υποθέτει ότι ένας πεζός δεν θα περνούσε ποτέ από διαφορετικό μέρος του δρόμου παρά μόνο από τη διάβαση πεζών. Η Herzber όμως δεν έπραξε κάτι τέτοιο, ενώ επιπλέον το σύστημα δεν αναγνώρισε το ποδήλατο με αποτέλεσμα να μην λάβει καμία πληροφορία σχετικά με το ότι υπήρχε μπροστά του κινούμενο αντικείμενο για το οποίο έπρεπε να σταματήσει.

Πριν το δυστύχημα αυτό, είχε προηγηθεί ένα αντίστοιχο το 2016 με αυτοκίνητο της Tesla, ενώ ακολούθησαν άλλα τρία θανατηφόρα δυστυχήματα το 2020 με αυτοκίνητα της ίδιας εταιρίας. Σύμφωνα με τον πρόεδρο του NTSB (National Transportation Safety Board), Robert Sumwalt, το σύστημα Αutopilot της Tesla θεωρείται λανθασμένα από πολλούς ότι καθιστά τα αυτοκίνητα της Tesla πραγματικά αυτόνομα, χωρίς να είναι αναγκαία η παρουσία-παρέμβαση του οδηγού. Το Αutopilot της Tesla εμπίπτει στην κατηγορία 3 των αυτόνομων αυτοκινήτων, με το επίπεδο 5 να αναφέρεται στα αυτοκίνητα χωρίς οδηγό.

 

Ανοίγοντας το «μαύρο κουτί» της τεχνητής νοημοσύνης

Το πείραμα του MIT χρησιμοποιεί ως βάση τoυ τα αυτόνομα οχήματα, αλλά το ζήτημα είναι ευρύτερο – αφορά την τεχνητή νοημοσύνη στο σύνολο της – και ειδικότερα το ζήτημα της ανάλυσης ρίσκου: Οι αποφάσεις των μηχανών ακόμη κι αν δεν σχετίζονται με το ποιός θα πεθάνει ή όχι, αφορούν την ρύθμιση διαφόρων εκφάνσεων της ανθρώπινης ζωής και καθημερινότητας όπως στη διαδικασία προσλήψεων ή στην επιβολή του νόμου στους πολίτες.

H προκατάληψη που εμφιλοχωρεί στους αλγορίθμους είναι πολύ πιο σύνθετη απ’ όσο νομίζουμε. Κι αυτό γιατί συναντάται σε διάφορα στάδια της αρχιτεκτονικής των συστημάτων. Η τεχνητή νοημοσύνη και οι αλγόριθμοι είναι στην πραγματικότητα ένα «μαύρο κουτί», με την έννοια της συνθετότητας ως προς τα ακριβή δεδομένα που τροφοδοτούμε τα μοντέλα αλλά και το πώς ακριβώς λαμβάνονται οι διάφορες αποφάσεις.

Το να ανοίξουμε αυτό το μαύρο κουτί είναι και το πραγματικό επίδικο. Οφείλουμε να ξέρουμε κάθε φορά ποια ομάδα βρίσκεται σε μεγαλύτερο κίνδυνο από αποφάσεις που αποτελούν προϊόν εκμάθησης ενός μοντέλου τεχνητής νοημοσύνης – ακόμη περισσότερο στις περιπτώσεις που τα δεδομένα με τα οποία τροφοδοτούμε τα συγκεκριμένα συστήματα είναι μεροληπτικά.

 

Με πληροφορίες από άρθρο του CNN