Techweek

Waarom praten met apparaten lastig blijft

Coen van de Ven • 03 november 2016 15:43 @CoenvdVen

Beeld © iStock

Al sinds acteurs in sciencefictionfilms het begonnen te doen, is praten met apparaten iets waar de gadgetliefhebber van droomt. Apple (Siri), Microsoft (Cortana) en Google (Google Now) lijken met hun digitale assistenten dit dichtbij te brengen. Toch is het nog even wachten voor dat echt kan.

Elk taalgebied kent haar bekende en minder bekende dialecten. En dat is voor digitale assistenten een probleem. Een Schot die met moeite het Engelse 'stiff-upper-lip accent' produceert, wordt vaak maar half begrepen. En toen vorig jaar een Nederlandstalige Siri werd geïntroduceerd, overheerste bij onze zuiderburen vooral teleurstelling: "Het is een domme Hollander", kopte de Vlaamse krant De Morgen.

Valt altijd tegen

"Spraakinnovaties vallen in de praktijk vrijwel altijd tegen," zegt Walter Daelemans, professor in computerlinguïstiek aan de Universiteit van Antwerpen. "Aan het begin van een onderzoek wordt altijd gedacht dat tegen het einde grote resultaten zullen geboekt zijn. Maar de ontwikkelingen gaan uiteindelijk maar heel langzaam."

Ook bij techgiganten als Apple, Microsoft en Google is het nog even wachten voor je echt kunt praten met je gadget. Na verwachtingsvolle aankondigingen in 2011 (Siri), 2014 (Cortana) en 2012 (Google Now), lijkt het erop dat de spraakassistenten vooral gebruikt worden om een wekker te zetten of het weerbericht op te vragen. 

Trucjes

"Op dit moment lijkt het alsof je telefoon al veel begrijpt," zegt Daelemans. "Maar het zijn vooral nog trucjes." Als de assistent een goed of handig antwoord geeft, komt dat vaak omdat de data al in de telefoon staan. Denk bijvoorbeeld aan agenda-afspraken, contactgegevens van vrienden of je thuisadres. "Dat heeft dus weinig met echt begrijpen te maken."

Toch is Daelemans absoluut niet pessimistisch over de toekomst van spraakassistenten. "De interesse in deze ontwikkeling is gigantisch. Ook in de wetenschap. Waar we een paar jaar geleden nog massaal debatteerden over machine translating (bijvoorbeeld Google Translate), kijken we nu allemaal naar spraakontwikkelingen."

Van verstaan naar begrijpen

Een grote uitdaging is om op den duur niet alleen mensen goed te verstaan maar ze ook goed te begrijpen. Een nieuwe MacBook kan het spraakcommando "Play a song by Bob Dylan" goed verwerken. Maar tien seconden later zeggen dat je "toch liever luistert naar Katy Perry" kan niet. Een menselijke deejay snapt dat het tweede commando voortbouwt op het eerste. Een computer begrijpt dat niet.

"Om spraak te begrijpen is context ontzettend belangrijk," zegt David Niemeijer. Hij is CEO en oprichter van het Amsterdamse Assistiveware, marktleider op het gebied van spraakapps waarmee mensen met een beperking via hun iPad, iPhone of Apple Watch toch kunnen communiceren via een digitale stem.

Toon bepaalt boodschap

Zijn gebruikers zitten over de hele wereld en zijn bijvoorbeeld autistische kinderen die via een app woorden combineren en zo toch gesprekken kunnen voeren. Een van de bekendste gebruikers is de Engelse comedian Lee Ridley, die niet kan spreken. Onder de naam 'Lost Voice Guy' staat hij op het podium, met lovende recensies in Britse kranten tot  gevolg.

Zowel AssistiveWare als de grote techbedrijven hebben te kampen met de complexiteit van taal. Naast het doorgronden van regionale taalverschillen en context, noemt Niemeijer ook het belang van subtiliteit. Zo hebben woorden vaak meerdere betekenissen en kan intonatie een hoop aan je boodschap veranderen. "Soms bepaalt de toon waarop een kind ‘papa’ roept de boodschap. Niet het woord dat het gebruikt," zegt Niemeijer.

Experts gezocht

Het vinden van experts die dit begrijpen is lastig. In 2014 verspreidde Apple de vacature voor een technische taalexpert met specifiek kennis van de Nederlandse taal. Niemeijer herkent die zoektocht: "Elk taalgebied heeft maar een handjevol mensen die verstand hebben van hoe linguïstiek gebruikt kan worden om een vocabulaire te ontwikkelen."

Om een computer te laten snappen wanneer papa ‘help’ betekent of als een boze sneer geïnterpreteerd moet worden, is er vooral veel dataonderzoek nodig zegt professor Daelemans. "Alle interacties met je telefoon worden verzameld en geven steeds meer inzicht. Op basis van miljoenen historische interacties van verschillende gebruikers, moet het mogelijk zijn om op den duur verschillende sprekers te verstaan maar ook om context te doorgronden."

Google Now

Wat dat betreft is Google Now de meest veelbelovende assistent, vindt Merijn Doggen, tech-expert bij Bright.nl. "Android staat op ontzettend veel apparaten. Ze hebben bijna een marktaandeel van 80%." Die grote groep gebruikers staat garant voor ontzettend veel inzichtrijke data. Zeker als je meetelt dat Google ook de belangrijkste zoekmachine heeft.

"Daar komt bij dat Google veel makkelijker omgaat met privacy," zegt Doggen. "Het is maar de vraag of Apple een assistent kan maken die net zo intelligent wordt als die van Google, zonder hun privacy-standpunt te veranderen."

Apple geïnteresserd in AssistiveWare 

Voor Niemeijer is die strijd niet relevant. "Wij bedienen een duidelijke niche en blijven dat doen." Wel is de interesse van Apple-topman Tim Cook gewekt. Een half jaar geleden bezocht Cook het kantoor van Niemeijer om te zien hoe het Amsterdamse bedrijf werkt.

De apps van AssistiveWare zijn inmiddels al gesignaleerd in de reclamefilmpjes van Apple die gericht zijn op consumenten met een beperking.

Deze week is het Techweek op RTL Z. Met veel extra verhalen over de laatste technologische trends. Lees ze hier allemaal terug.

Bron • RTL Z