Här är spelnördarna som knäckte Moores lag

2018-10-25 06:00  

Nvidias grafikkort skulle göra 3d-spel mer verklighetstrogna än någonsin. I dag är företaget världsledande på hårdvaran som driver utvecklingen av artificiell intelligens framåt.

Har man sett honom stå på scen förut går det att förutspå två saker. Jensen Huang kommer att vara iklädd en tajt svart skinnjacka och han kommer att dödförklara Moores lag innan applåderna hunnit tystna. Chiptillverkare Nvidias årliga konferens i München är inget undantag.

– De senaste 35 åren har vi satt vår tro till en grundläggande sanning, att beräkningskraften i datorer ska fortsätta utvecklas enligt Moores lag, skanderar Jensen Huang som är företagets vd för publiken. Men nu har utvecklingen i stort sett stannat av. Moores lag är över.

För att göra en lång historia kort är Moores lag en teori som Intels grundare Gordon Moore författade 1965. Den går ut på att antalet transistorer som går att trycka in på en viss yta kommer att fördubblas vartannat år. Vilket i sin tur leder till en exponentiell ökning av prestandan i datorns huvudprocessor, eller cpu – central processing unit. Lagen är närmast en ideologi för Intel, och tack vare att det hela tiden gått att pressa ned storleken på transistorerna har man kunnat få in mer kraft på samma yta. Men inte längre.

”Moores lag har levt vidare”

Som Ny Teknik skrivit om tidigare har halvledarbranschen nått en smärtpunkt där transistorerna blivit så små att Moores lag inte gäller längre. Intel började tillverka processorer med 14 nanometersteknik 2014, men fyra år senare har man fortfarande inte lyckats ta steget ned till 10 nanometer. Det går visserligen att pressa storleken ytterligare, Apple och Huawei är redan nere på 7 nanometer, men takten sjunker och någonstans finns en fysisk gräns.

Läs mer: Moores lag nu officiellt dödsdömd

Atila Alvandpour är professor vid Linköpings universitet och chef över avdelningen för forskning inom elektroniska kretsar och system. Han har en lång bakgrund inom branschen och arbetade själv några år på Intel i början av 2000-talet. Han skrattar till när jag frågar om Moores lag är på väg att upphöra.

– Nästan varje år kommer en artikel som säger att Moores lag är död. Men den har levt vidare, säger han.

Men något är faktiskt på väg att ske. Atila Alvandpour menar att prestandaökningen inte har tagit slut. Halvledartillverkarna har hittat nya vägar framåt. Genom bättre chipdesign, smartare programvara och fler processorkärnor fortsätter processorerna att bli snabbare för varje år. Men transistorerna krymper inte lika fort längre. Samtidigt har it-branschen vaknat upp och insett att det finns bättre lösningar än att lägga allt jobb på huvudprocessorn.

Nvidas chip används i fem av sju superdatorer

I Jensen Huangs historieskrivning är det där Nvidia har hittat sin nisch. Frågar du honom sysslar företaget inte med att tillverka grafikkort utan med hårdvaruacceleration – eller ”accelerated computing”.

– Vi är 100 procent investerade i en enda sak, och det är hårdvaruacceleration, säger en betydligt lugnare Jensen Huang på en pressträff dagen efter sin presentation i München.

– Det kanske inte ser ut så, men Nvidia är en ”one-trick pony”. Vi hittar områden där det finns enorma gap mellan tillgången och efterfrågan på datorkraft och så försöker vi lösa problemet. Då menar jag inte att gapet är en faktor av två, utan av tusen eller mer.

Det är så grafikkorten vandrat från speldatorer till varenda självkörande bil, varje algoritmtuggande datacenter och varje arbetsstation hos varenda forskare som sysslar med maskininlärning. Tittar du under huven på någon av de här enheterna är chansen överväldigande att det sitter ett chip med Nvidias logo därinne. Av världens sju snabbaste superdatorer använder fem Nvidias chip.

Från början ett gäng nördar som byggde grafikkort

Men så har det inte alltid varit. 30 år gammal startade Jensen Huang, som gjort karriär hos halvledarjätten AMD, sitt imperium ihop med två andra ingenjörer på en blygsam snabbmatskrog i San Jose i södra Silicon Valley någon gång under 1993. De var ett gäng nördar som bestämt sig för att bygga grafikkort för att kunna måla mer realistisk 3d-grafik i dataspel. Även om Jensen Huang själv bestämt hävdar att de redan från start var bensäkra på att grafikprocessorn hade mycket större potential än så.

– Vi visste hela tiden att 3d-grafik var ett väldigt viktigt område. Det är samma process som används för att rita en virtuell verklighet som för att simulera fysikexperiment eller jobba med maskininlärning, menar Jensen Huang.

Läs mer: Superdatorn från Nvidia ska göra Volvos bilar säkrare

För att snabbt kunna rendera 3d-grafik använder ett grafikkort mängder av små processorkärnor för att parallellt rita alla pixlarna på skärmen. På samma sätt kan kärnorna användas i andra situationer där det krävs många små men resurshungriga beräkningar parallellt. Som maskininlärning.

Genombrottet kom i början av 2010-talet. En teknik som kallas för djup maskininlärning, eller deep learning, hade börjat bli på modet, men beräkningskraften som krävdes var avskräckande. Tills en grupp ai-forskare på Google fick nys om en ny metod: att flytta arbetet från cpu:er till grafikkort. Resultatet blev omvälvande. Forskarna kunde byta ut sina 2 000 cpu:er mot tolv grafikkort ämnade för speldatorer.

– Det var en utveckling som demokratiserade artificiell intelligens. Plötsligt kunde alla forskare som hade tillgång till några grafikkort jobba med ai, säger Jensen Huang.

Nvidia är förstås inte ensamma om idén. När branschen märkte att transistorerna började bli omöjligt små fokuserade många ingenjörer på andra lösningar än att bara försöka minska storleken. En av dem är att precis som Nvidia flytta arbetsbördan från en huvudprocessor till andra, bättre lämpade kretsar.

– Det finns ingen anledning att låta en cpu göra allt jobb, när det finns annan elektronik som gör det bättre, säger Atila Alvandpour på Linköpings universitet. Acceleratorer kan göra vissa specifika jobb bättre utan att använda hela maskineriet. Det betyder att du behöver mindre hårdvara och förbrukar mindre energi samtidigt som arbetet går snabbare.

Vill hitta helt nya lösningar

Han ser en framtid där datorerna blir alltmer specialiserade och skräddarsydda för specifika uppdrag. Det blir helt enkelt billigare och mer effektivt att bygga en enhet som är helt utformad för ett specifikt arbete. Att öka den tillgängliga beräkningskraften med 1 000 gånger, som Nvidia säger sig kunna, är faktiskt inte omöjligt om man sätter rätt hårdvara på rätt plats.

Om Moores lag är en religion för Intel är hårdvaruaccelerationen ett mantra på Nvidia. Fast där Intel fokuserat på att göra snabbare processorer har Jensen Huang ett annat sätt att ta sig an problemet.

– Målet är inte att få chippet att gå snabbare. Målet är att få applikationen att gå snabbare. Det är klart att det hjälper om chipet blir snabbare, men det du egentligen vill är att träna dina neuronnät snabbare eller köra bättre fysiksimuleringar, säger han.

Han drar en liknelse med logistiskbranschen. Om du vill minska leveranstiderna ska du kanske inte ha som mål att bygga snabbare flygplan, utan hitta andra helt nya lösningar.

– Du kanske inte behöver flyga alls. Du kanske kan göra en 3d-utskrift av varan i stället och leverera den mycket snabbare, menar Jensen Huang.

Läs mer: Svenska spelet använder nya supergrafiken

Det är så han vill se på Nvidia. Som ett bolag som skakat om hela branscher genom att erbjuda ett alternativ till cpu:n.

På pressträffen vill alla ställa frågor om självkörande bilar och Nvidias nya samarbete med Volvo, men Jensen Huang vill prata om något betydligt mindre exalterande: ett nytt verktyg för programmerare.

På scenen dagen innan ägnade han nästan löjeväckande mycket tid åt att presentera Rapids. Det är något så trist som ett enkelt sätt att flytta arbetsbördan för dataanalys eller maskininlärning till en eller flera grafikprocessorer. Det som fascinerar är vilka samarbetspartner som är med på tåget. IBM, HP Enterprise och Oracle har varit inblandade i arbetet och den första referenskunden är Walmart. Den enorma butikskedjan använder Rapids för att köra analyser och förutspå hur lagerstatusen i de sanslöst många varuhusen förändras.

– Rapids är algoritmerna som gör det möjligt att öka hastigheten på all maskininlärning, säger Jensen Huang. Maskininlärning kan användas överallt. Från logistik och telekommunikation till sjukvård. Alla branscher kan dra nytta av att det blir lättare att ta sin data och använda för att förbättra sin programvara.

Läs mer: Nvidias vr-teknik ska göra självkörande bilar säkrare

När Moores lag kanske ändå sjunger på sista versen finns det förstås de som vill föreslå en ny formel för beräkningskapaciteten. Nvidias tusenfaldiga prestandasprång det senaste årtiondet har redan gett upphov till skämt om en Jensens lag. Själv är han inte så säker.

– Jag skulle aldrig kalla det så! Dessutom är det ingen lag, menar Jensen Huang. Om våra ingenjörer säger att vi kan öka hastigheten mer än 1 000 gånger på tio år säger jag: Kör på, bryt mot lagen!

Nvidia startades för 25 år sedan

Vad: Ett amerikanskt teknikföretag med huvudkontor i Santa Clara, Kalifornien, USA.

Grundades: 1993 av Jensen Huang, Chris Malachowsky och Curtis Priem.

Verksamhet: Startade med att utveckla grafikkort för datorer, med inriktning på spel. Arbetar i dag med programvara som gör det möjligt att använda grafikkort mer effektivit i självkörande i bilar, datacenter och i artificiell intelligens.

Anställda: 11 500, varav nästan tre fjärdedelar är ingenjörer.

Namnet: Nvidia kommer från en hopslagning av ”nv” som står för ”next version” och latinets ”invidia” som betyder avund.

Simon Campanello

Kommentarer

Välkommen att säga din mening på Ny Teknik.

Principen för våra regler är enkel: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Ny Teknik eller av oss anlitad personal.

  Kommentarer

Debatt