Digitalisering
Analys: ”Googles nya telefoner imponerar”
ANALYS. När Google tillverkar sina nya Pixel 2-telefoner är artificiell intelligens en avgörande ingrediens. Ny Teknik åkte till London för att ta reda på hur det går till.
Vill man veta vad en kamera går för är det tacksamt med mörker. Och här, i den typen av industrilokal som Silicon Valley-bolag fortfarande verkar tycka är hippa, har Google dämpat belysningen.
Det är snittar på runda brickor, vinglas med rött eller gult i och på en skylt i rosa neon står något om att vi är välkomna in i ”nyfikenhetsrummen”. Det låter mer Playboy Mansion än #madebygoogle, men det här är ingen fest till Hugh Hefners minne, utan demonstrationer av ny teknik.
En representant för Google håller en Pixel 2-telefon framför mitt ansikte och trycker av. Hon visar mig fotot av en blek ursäkt till reporter. Efter ett par sekunder – när telefonens artificiella intelligens fått fundera lite – blir bakgrunden suddig och bilden med ens mycket snyggare. Porträttet är imponerande. Dels saknar Pixel 2 och Pixel 2 XL en extra kamera för att skapa porträtteffekten, dels är bilden tagen mer eller mindre i mörker.
En annan funktion Googles nya telefoner kan erbjuda tack vare maskininlärning är bildstabilisering. Skakiga klipp blir följsamma tagningar som om fotografen utrustats med en osynlig steadycam.
Man förstår varför Google – anförda av vd Sundar Pichai – talade så mycket om kombinationen av hårdvara, mjukvara och artificiell intelligens: de är nämligen ett av få bolag som numera bemästrar alla tre. Efter att de köpt en del av HTC häromveckan har de rutinerade telefontillverkare under eget tak.
Läs mer:
Jag får hålla i en Pixel 2 XL och den halkar inte runt som en tvål i handen på samma sätt som min Iphone 7 Plus. Den är försedd med ett aluminiumhölje men ger mest en känsla av plast. Den har en gimmick som Google påstår är det mest naturliga i världen, men som jag får brottas några gånger med: genom att ”krama” med handen runt telefonens kanter tar man en genväg till den inbyggda röstassistenten.
Men även om man inte låter sig imponeras av Pixel 2-modellernas yttre eller, för den delen, deras förhållandevis blygsamma prestanda, är de likafullt två av de mest intressanta prylarna just nu. Google tycks inte särskilt angelägna om att tävla i vem som har den mest kraftfulla processorn eller den största lagringskapaciteten, utan vill förändra samtalet helt och hållet. Hur kan en telefon göra livet enklare? Hur kan den göra livet rikare?
För mig som bevakat dataspel i många år går tankarna ganska snabbt till Nintendo. De har aldrig varit intresserade av att använda den absolut senaste tekniken, utan konstruerar sina produkter genom att utnyttja beprövade och billiga komponenter på nya sätt. Google gör på sätt och vis samma sak nu, genom att klura ut vilka nya funktioner som kan uppstå när man kombinerar hårdvara, mjukvara och ai.
Läs mer:
Från högtalarna i industrilokalen spelas Rake it up av rapparen Yo Gotti. Pixel 2 och Pixel 2 XL känner automatiskt av det och visar den informationen på hemskärmen. Om man klickar på artistnamnet kommer mer information upp, samt möjlighet att spela upp låten via exempelvis Spotify. Den tjänsten är sedan flera år vanlig tack vare appar som Shazam, men Google har förenklat processen.
Det är med samma sorts enkelhet man via kameran – och med assistans av neurala nätverk – får hjälp att bildklassificera objekt och text. Informationen från ett visitkort behöver inte längre matas in manuellt. Informationen placeras in i rätt sammanhang: om man håller kameran framför en lapp som visar namnet på en router och dess lösenord ansluter Pixel 2-telefonerna automatiskt till nätverket.
Om man håller kameran framför en hund får man reda på vilken ras det är. Man får en känsla av att Google förr eller senare kommer att klassificera varenda objekt i världen - vilket kommer att spä på diskussionen om användarvänlighet kontra integritet.
Och på tal om det: Googles röstassistent – som finns i Pixel 2-modellerna, i smarta högtalarna Google Home och i flera andra Google-prylar – kan numera känna igen enskilda röster (åtminstone om man använder Google Home). Det innebär att röstassistenten kan ha skräddarsydda inställningar för enskilda användare bara genom att höra dem prata.
Läs mer:
På sikt ser Google ett ekosystem av produkter som anpassar sig till användaren och som dessutom förstår varandra. Den information som Google Home samlat på sig om en användare kan nyttjas till att göra samma användares Pixel 2-upplevelse mer personlig.
Jag kommer att tänka på ett samtal jag hade med en ai-forskare i våras. Forskaren spekulerade i att vi alla inom en snar framtid kommer att ha en egen, högst personlig, ai-hjälpreda. En sådan kan naturligtvis förflytta sig till olika enheter beroende på sammanhang och var vi fysiskt befinner oss.
Google knuffar oss i just den riktningen. Och visar att de menar allvar när de säger att artificiell intelligens står högst upp på deras dagordning.