Hej Siri, du er dum

Siri, adlyder du robotikkens tre love? Som mange andre dumme spørgsmål er det et, som nogen hos Apple møjsommeligt har forudset. "Jeg glemmer de tre første," kvidrer svaret, "men der er en fjerde: 'En smart maskine skal først overveje, hvad der er mere værd: at udføre den givne opgave eller i stedet finde en vej ud af det'. ”

Ha ha! Forestil dig mødet, hvor de skrev det! Problemet er, at det ikke rigtig er en joke, er det? Det er deres egentlige udviklingsopgave.

Siri kan gøre en masse nemme ting, som summer, tjekke vejrudsigten og sende e-mails. Kræv noget hårdere, og det parerer enten "jeg er ikke sikker på, jeg forstår" eller laver bare en websøgning efter, hvad du sagde. Nå, whoop-de-doo. Singularitet ahoy.

Se relaterede ti ting, Apple dræbte, og hvorfor det var rigtigt Apple iPhone 6s anmeldelse: En solid telefon, selv år efter dens udgivelse

Fremkomsten af ​​gør-det-alt-bots – inklusive Amazons Alexa, Googles kommende assistent og endda en rival fra Siris originale udvikler, kaldet Viv – kaster et ubehageligt søgelys på iOSs afløselige concierge. Hvis det, som det rygtes, er ved at blive annonceret som en teltstangsfunktion i OS X 10.12 Sensemilla*, kan vi kun håbe, at et kvantespring i smarte er på vej. For det kan have nogle klogskaber, men Siri har ikke knækket at være klog.

En retning

"Men det virker. For det meste. Hvis du taler som en BBC-taler."

Det er fantastisk, at teknologien findes til at konvertere tale til tekst. Ikke så fantastisk, at teknologien tilsyneladende ikke passer ind i din telefon, så den skal sidde i North Carolina og bruge dit datatillæg. Men det virker. For det meste. Hvis du taler som en BBC-taler.

Derefter kan teksten udvindes for nøgleord, der kan tilsluttes en af ​​Siris informationskilder, som omfatter Apple Maps, Wolfram Alpha, Wikipedia og Microsoft Bing. (Heldigvis kan du bytte Bing ud med en rigtig søgemaskine i Indstillinger | Safari | Søgemaskine. Dog ikke ved at spørge Siri. Det ville være for nemt.)

Men måden Siri bruger disse kilder på er langt fra smart. Når jeg åbner Maps og skriver 'Whickham' i søgefeltet, finder den korrekt en liste over steder i Whickham, en lille by i nærheden af ​​hvor jeg bor. Blandt disse er den generiske post for selve Whickham, markeret lige ved siden af ​​ordet 'Whickham' på Apples kort. Sætningen er i øvrigt dejlig.

Jeg burde egentlig ikke beundre sætning, mens jeg kører, så i stedet siger jeg: "Hey Siri, naviger til Whickham." Hurtigt som et glimt finder Siri High Wycombe, Buckinghamshire. Det er den anden ende af England. Det spørger mig ikke, om det er den Wycombe, jeg mente; den begynder bare at plotte en rute.

(Dette er ikke så dumt, som det bliver. Når jeg spørger om vej til 'Washington', en anden by i Tyne and Wear, tilbyder det mig Olympia, WA, 4.600 miles væk. Det er ikke engang den mest sandsynlige forkerte Washington.)

"Nej, Siri, Whickham, W-H-I-C-K-H-A-M."

Nu er der en helt åbenlys måde at løse denne forvirring på: du vil stave ordet ud. Så jeg prøver: "Nej, Siri, Whickham, W-H-I-C-K-H-A-M." Den hører dette udmærket og meddeler straks, at den ikke kan finde nogen matchende steder. Umiddelbart, vel at mærke - ikke gå ud for at tjekke kilder. Bare nej. Husk, at Whickham er lige der i Apple Maps, den samme motor, som den bruger til at vise mig High Wycombe.

Den eneste måde, jeg til sidst kommer til Whickham, er ved at huske et gadenavn der (Front Street) og bede om det, og så tænke på en anden måde at bede om det på, efter at Siri har vist mig den forkerte Front Street og igen ikke tilbyder nogen alternativer. For at føje spot til skade, har den valgt den Front Street, der er tættest på min nuværende placering. Naturligvis.

Beklager, jeg følger ikke med

Andre typer forespørgsler håndteres med lignende tåbelighed. "Siri, hvad er forskellen mellem Tysklands BNP og Italiens?" Intet problem – den går hen og får det rigtige svar fra Wolfram Alpha. Så prøver jeg et opfølgende spørgsmål. Siri plejede at være vrøvl med opfølgende spørgsmål, men slog sine ideer op, efter at Google Voice Search kom ud og godkendte dem. Du kan nu spørge "Hvordan bliver vejret på mandag?" og tilføje "Hvad med tirsdag?" og det er fint. Eller overskyet, alt efter tilfældet.

Så jeg følger op med: "Hvad med Frankrig?" Den mishører "Frankrig" som "venner". Af alle de ord, jeg kunne have sagt, tilføjer det faktum, at jeg lige har navngivet to andre europæiske stater, tilsyneladende ingen vægt til muligheden for, at jeg mente "Frankrig". Verdensførende interaktiv AI, folkens.

Jeg har en 88-årig slægtning, som er meget døv. Når du gentager noget, hun har hørt forkert, gætter hun et andet ord. Hun kan stadig tage fejl, men hun gætter ikke det samme ord igen, for hvorfor skulle du have gentaget det? Jeg gentager "Hvad med Frankrig?" tre gange. Tre gange vender Siri tilbage "Hvad med venner?" "Interessant spørgsmål, Adam," svarer hun lyst.

Til sidst finder jeg ud af, at jeg er nødt til at sige "Frankrig" med en fornemt accent (jeg er nordlig, så "Frankrig" rimer på "bukser"). Siri kommer tilbage med telefonnummeret på Elizabeth France CBE, som er i mine kontakter fra da hun var databeskyttelsesregistrator. Fordi jeg åbenbart mente en tilfældig person, hvis kontor jeg sidst ringede til for 14 år siden, ikke landet. (Landet, der er nabo til de to andre lande, jeg lige har nævnt.) Og jeg omtaler ofte folk bare ved deres efternavne. Det er helt en ting. "Siri, hvad med Carruthers?"

Skrald ind

Den slags logik, der mangler her, burde ikke være svær. Det er der allerede i nogle henseender. Du kan sige – lige ud af det blå, à propos de rien – "Hej Siri, Ivy er min søster." Efter at have tjekket hvilken Ivy du mener, hvis du har mere end én i dine kontakter, vil Siri spørge: "OK, vil du have mig til at huske, at Ivy er din søster?" Sig "Ja", og fremover kan du sige "Ring til min søster" for at ringe til denne kontakt.

Familieforhold har standard indbyrdes afhængighed, så naturligvis kan du derefter fortsætte med at angive "Oliver er Ivys søn" og efterfølgende sige "Siri, send en sms til min nevø" for at sende en besked til denne kontakt. Det er ikke raketvidenskab, men det er dejligt... vent lidt. Nej. Siri laver en websøgning efter "Oliver er Ivys søn". Det kan ikke engang komme så langt.

"Det, der er mest irriterende ved Siri, er, at for et system, der er designet til at lytte, er det en så dårlig lytter."

Det, der er mest irriterende ved Siri, er, at for et system, der er designet til at lytte, er det en så dårlig lytter. Og det er mere end bare en fejl. Den uberettigede ubegrundethed, den flade afvisning af at overveje sin egen uvidenhed, er uundgåeligt symptomatisk for Silicon Valley-hybris.

At forstå menneskelig tale og intentionerne bag det er en enorm udfordring selv for mennesker. Som talere snubler vi over vores ord; som lyttere misfortolker vi dem. Det meste af enhver samtale anmoder blidt om afklaring eller løsning af tvetydighed.

Alligevel vil Siri ikke have noget af det. På trods af alt dets samtalefiner er det bare at søge i vores input efter de samme gøende kommandoer, som vi kunne finde i en menu. Enten ved den, hvad vi vil have, eller også "forstår den ikke", en passiv-aggressiv måde at sige "Ugyldig input". Der er intet imellem.

"Det er så Bay Area," siger folk nu, når en eller anden overprivilegeret tech-mogul bommerter ind i et komplekst menneskeligt problem med en forsimplet løsning på det forkerte problem. Vi kan lige så godt sige: "Det er så Siri."

*Bevis så, at vi tager fejl

LÆS NÆSTE: De ti ting, Apple slog ihjel – og hvorfor det var rigtigt