Het koppel nam contact op met Amazon, dat zich uitgebreid excuseerde. Maar op een terugbetaling van de aanwezige Alexa-toestellen ging het bedrijf niet meteen in. Ook op een duidelijke verklaring van wat er fout ging bleef het aanvankelijk wachten laat het koppel weten in een gesprek met de Amerikaanse lokale zender Kiro 7.

Foute interpretatie, fout commando

Het verhaal krijgt internationaal flink wat aandacht en intussen kan Amazon wel preciezer zeggen wat er is misgelopen.

Alexa luistert continu naar je omgeving, maar enkel om te luisteren naar het zogenaamde ontwaakwoord 'Alexa'. Pas dan begint de spraakassistent bij te houden en te verwerken wat je zegt omdat het luistert naar opdrachten zoals 'Bel naar...'

Volgens Amazon, dat de fout bevestigt aan The Register, heeft Alexa een van de woorden in het gesprek verkeerd geïnterpreteerd als ontwaakwoord. Vervolgens werden de zinnen nadien geïnterpreteerd als instructies om een bericht met opname te verzenden naar een contactpersoon, in dit geval de collega van de man van het koppel.

Privacy
Amazon benadrukt dat het om een zeer zeldzame fout gaat en dat het veel belang hecht aan de privacy van haar klanten. Maar dat de spraakassistent om te beginnen al zo'n fout maakt toont dat spraaktechnologie met de juiste (of verkeerde) uitspraak al snel voor flink wat privacyproblemen kan zorgen. Het gesprek in kwestie was gelukkig minder van gevoelige aard en ging over houten vloeren.

In samenwerking met Datanews