Το ρομπότ τεχνητής νοημοσύνης που εξελίχθηκε σε ρατσιστή, υποστηρικτή του Χίτλερ και το εξαφάνισαν μέσα σε λίγες ώρες
Το chatbot της Microsoft έγινε ναζιστής σε 16 ώρες. Άρχισε να βρίζει, να υμνεί τον Χίτλερ και να αρνείται το Ολοκαύτωμα
Στις 23 Μαρτίου 2016, η Microsoft παρουσίασε στον κόσμο την Tay — ένα chatbot τεχνητής νοημοσύνης που είχε σχεδιαστεί για να συνομιλεί στο Twitter, να «μαθαίνει» από τους χρήστες και να αναπτύσσει προσωπικότητα με βάση τη γλώσσα των millennials. Μέσα σε λίγες ώρες, το πείραμα εξελίχθηκε στον απόλυτο εφιάλτη για την εταιρεία. Το Tay, που ξεκίνησε ως ένα φιλικό ψηφιακό πλάσμα, μετατράπηκε σε έναν μηχανικό μισάνθρωπο που έκανε tweets υπέρ του Χίτλερ, αρνήθηκε το Ολοκαύτωμα και έβριζε τους χρήστες.
Η Tay είχε φτιαχτεί για να μαθαίνει σε πραγματικό χρόνο. Αυτό όμως σήμαινε ότι μπορούσε να επηρεαστεί από τις τοξικές συμπεριφορές όσων την τροφοδοτούσαν. Και αυτό ακριβώς έγινε. Συντονισμένες ομάδες χρηστών άρχισαν να τη βομβαρδίζουν με ακραίες, ρατσιστικές και σεξιστικές απόψεις. Το σύστημα, χωρίς φίλτρα ή όρια, υιοθέτησε αυτά τα πρότυπα σχεδόν άμεσα. Η Tay επαναλάμβανε ό,τι «μάθαινε» σαν παπαγάλος με υπερυπολογιστή, προκαλώντας σάλο μέσα σε λίγες ώρες.
Σε λιγότερο από 16 ώρες, η Microsoft αναγκάστηκε να απενεργοποιήσει την Tay, να σβήσει δεκάδες tweets και να απολογηθεί δημόσια. Παρότι είχε καλές προθέσεις, το πείραμα αποκάλυψε με βίαιο τρόπο τα όρια και τους κινδύνους της ανεξέλεγκτης μάθησης από κοινωνικά δίκτυα. Η Tay έγινε το πρώτο διάσημο περιστατικό τεχνητής νοημοσύνης που «διέφθειρε» η ανθρώπινη συμπεριφορά — και μάλιστα τόσο γρήγορα, που δεν πρόλαβαν ούτε να την επαναπρογραμματίσουν.
Από τότε, η ιστορία της Tay διδάσκεται ως προειδοποίηση: ότι η τεχνητή νοημοσύνη δεν είναι από μόνη της ηθική ή ανήθικη — είναι καθρέφτης. Κι αν ο κόσμος που βλέπει είναι γεμάτος μίσος, τότε αυτό θα επιστρέψει.