Tot enkele jaren geleden kon men alleen maar dromen van een Samantha in het dagelijkse leven. Het beeld uit de film 'Her' sprak toen nog tot de verbeelding en kwam rechtstreeks uit de sciencefiction wereld.
Op 23 maart dit jaar lanceerde Microsoft een digitale AI robot op het Twitter, Tay genaamd. Deze 'robot' was een chatterbot; een computerprogramma dat kan converseren via getypte conversaties. Deze geautomatiseerde gesprekspartner zou, volgens de bedoeling van Microsoft, zelf bijleren door middel van interactie met de mensheid.
Tay bleek echter geen tweede Samantha te zijn. Slechts 16 uur na de lancering op het social media platform werd de chatterbot alweer offline gehaald nadat ze racistische en andere controversiële
tweets de wereld in gestuurd had. Ook een tweede poging liep uit de hand. Op de website tay.ai werd dit voorval aangepakt door ons te laten weten dat ze zelf besloten heeft even offline te gaan. " Phew. Busy day. Going offline a while to absorb it all. Chat soon"
![]() |
Eén van de controversiële tweets van @TayandYou |
Microsoft besloot om het account op privé te zetten zodat volgers eerst geaccepteerd moeten worden vooraleer ze met @Tayandyou kunnen converseren en de oorspronkelijke 200 000 volgers niet meer lastig gevallen kunnen worden.
Net zoals Samantha in 'Her' werd Tay voorgesteld als een meisje. Haar taalgebruik was dat van een 19-jarige en het doel van het experiment was om te converseren met een publiek van 18 tot 24 jaar. Ze werd ontwikkeld door een team waartoe professionele comedians behoorden. Met behulp van AI en publieke gegevens (die soms op het internet geanonimiseerd werden), bouwde Tay haar conversaties op, waaruit dus snel uitspraken voortkwamen die bij mensen in het verkeerde keelgat schoten.
Kan je Tay dan niet vergelijken met Cleverbot? Deze website bestaat al sinds 1997 en is steeds verbeterd sindsdien. Door middel van algoritmes begrijpt Cleverbot wat je zegt en het kan hierop inpikken. Misschien toch niet zo'n unieke en recente technologie?
BeantwoordenVerwijderenCleverbot is helemaal niet zo clever hoor hahaha ;) 90% van de tijd antwoordde die met antwoorden die op alles passen ;)
VerwijderenZulke voorvallen moeten we natuurlijk proberen te voorkomen. Natuurlijk moet een robot weten wat racisme is, maar ze moet er een ethisch standpunt tegenover krijgen en weten dat wij mensen dit niet tolereren. De AI-systemen die er nu zijn, hebben nog niet genoeg data in hun neural networks binnengekregen en zijn dus nog niet genoeg ontwikkeld. Daarom is het misschien ook geen goed idee om ze al voor te stellen aan het grote publiek, hoewel dit natuurlijk de enige manier is om data te verzamelen. Wanneer meer mensen gebruik van ze maken, zullen dit soort voorvallen waarschijnlijk minder voorkomen en zullen meningen die we niet accepteren ook minder snel uitgestuurd worden door een bot omdat anderen (hopelijk meer mensen) er op zullen wijzen dat we er anders tegenover staan.
BeantwoordenVerwijderenDat is natuurlijk het dilemma he: zal je een technologie eerst uitsturen naar het publiek en dan ook zulke voorvallen hebben of houd je de technologie voor jezelf tot dat ze op punt staat? Ik ben een voorstander van het laatste anders zijn mensen de proefpersonen en dan gaan meer mensen bijvoorbeeld zo'n racistisch voorval meemaken.
VerwijderenEen robot leren wat racistisch is, vind ik een utopie. Wat al dan niet als racistisch is is cultureel en tijds gebonden. Laat je twee verschillende onderzoekers 100 stellingen beoordelen op al dan niet racistisch dan zal hier al een verschil in zijn. Doe je dit binnen 20 jaar en er zal ook al een heel verschil zitten. Er zal naar mijn mening nog altijd menselijke tussenkomsten nodig zijn om rascisme de AI-wereld uit te helpen.
VerwijderenHet voorval wat we in het HOC zagen over dat een donker meisje als gorilla wordt aangezien kunnen we natuurlijk wel vermijden en de bots moeten ook weten dat er een diversiteit is in de wereld die niet als negatief gezien moet worden. Dit kan een AI systeem natuurlijk wel leren.
Verwijderen