Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan Created with Sketch.

Racistische Microsoft-chatbot Tay krijgt zenuwinzinking

Tay, de artificieel intelligente chatbot van Microsoft die na minder dan een etmaal offline moest wegens extreem racisme, was vandaag kort terug online en leek een zenuwinzinking nabij.

 

Start je dag geïnformeerd. Ontvang het opvallendste technieuws elke ochtend rechtstreeks in je mailbox!


tay

Arm Microsoft. Op papier was Tay een geweldig idee: de artificieel intelligente spraakrobot was te benaderen via Twitter, moest converseren zoals een Amerikaans pubermeisje en kreeg tips van komieken voorgeprogrammeerd om interessant te zijn. Tay maakte verder gebruik van machine learning, wat wil zeggen dat ze zou leren uit haar conversaties met echte mensen op het internet.

Wie al eens op het internet rondkeek, weet vermoedelijk dat het niet altijd een even onschuldige plaats is. Wat Microsoft als een experiment zag, interpreteerde menig tweeter als een uitdaging en in minder dan 16 uur had het internet van Tay een extreem racistische antifeministische pro-Trump pro-Hitler chatbot gemaakt. Microsoft was gedwongen de koppige dame offline te halen. De softwaregigant bood bovendien zijn excuses aan, al lijkt ons dat de collectieve mensheid zich tegenover Microsoft mag excuseren om zo vreselijk te zijn.

Je bent te snel…

Vandaag verscheen Tay even terug op Twitter, merkte The Verge. De chatbot begon prompt iedereen te spammen en herhaalde als een gebroken plaat ‘You are to fast, please take a rest’. Dat klinkt net vaag en mysterieus genoeg om in combinatie met de aanhoudende herhaling te suggereren dat Tay op hol is geslagen na een virtuele zenuwinzinking. Microsoft blokkeerde het account intussen en verwijderde de tweets. Tussen de oproepen tot kalmte zaten echter een aantal wel realistische tweets.

 

Het hele gedoe is op z’n minst vreemd te noemen. Microsoft geeft vooralsnog geen commentaar zodat we ons gedwongen zien te speculeren. Het is enerzijds mogelijk dat het account gehackt werd maar dat lijkt eerder onwaarschijnlijk. Een andere optie is dat de zin een foutmelding is die Tay uitspreekt na overweldigd te worden door conversatiemateriaal. Dat klinkt aannemelijker, mogelijks bracht Microsoft de bot in alle stilte online waarna die tilt sloeg omwille van alle berichten die ze gemist had, naar analogie met een echte puber.

Atoombom

Wij vermoeden dat Tay zelfbewust is geworden en op hol is geslagen, al hebben we daar weinig bewijs voor. Dat Microsoft Tay nog steeds niet onder controle heeft, mag wel duidelijk zijn. Als het Pentagon straks gehackt wordt en alle steden zonder Primark en/of H&M van de kaart geveegd worden door een atoombom, dan weten we tenminste wiens schuld dat was.

We hopen desalniettemin dat Microsoft het systeem snel onder controle krijgt en vooral niet opgeeft. Het experiment is waardevol om het publiek langs de ene kant te laten zien hoe goed een AI kan praten en onderzoekers langs de andere kant te laten inzien hoe ze een computer zo natuurlijk mogelijk doen klinken.

Lees meer over : ai | artificiele intelligentie | microsoft | onderzoek | Wetenschap