AI ontwerpt razendsnel superieure chips | Technisch Weekblad
Nieuws

AI ontwerpt razendsnel superieure chips

Een team onderzoekers van Google is er in geslaagd om via deep reinforcement learning een AI-systeem te ontwikkelen dat in enkele uren een chipontwerp maakt, waar menselijke ontwerpers maanden over gedaan zouden hebben. In Nature meldt het team dat de door machines ontworpen chips bovendien beter presteren. Een computerchip bevat miljoenen, of zelfs miljarden onderdelen op een oppervlak van tientallen tot honderden mm2.

Omdat het aantal mogelijke ontwerpen volgens de onderzoekers niet door mensen te bevatten is (een 1 met 2500 nullen; ter vergelijking het aantal mogelijke manieren om schijven bij bordspel Go te plaatsen is een 1 met slechts 360 nullen) beginnen ontwerpers doorgaans met indelen van de duizenden macro blocks (geheugeneenheden) op de ‘chip vloer’, die later worden omringd door miljoenen kleinere standaardcellen. Al tientallen jaren worden pogingen gedaan om dit ontwerpproces, dat ook allerlei specifieke eisen voor de specifieke toepassing van een chip (onder meer ruimtegebruik, warmteproductie en energieverbruik) moet meewegen te automatiseren.

Links een menselijk chip-ontwerp, rechts het vloerontwerp door Google's AI

Links een menselijk chip-ontwerp, rechts het vloerontwerp door Google's AI

Google gebruikte 10.000 bestaande ‘vloerontwerpen’ om zijn model te trainen. Anna Goldie van Google, die het onderzoek deed, vertelt dat het model moest leren om chips met allerlei verschillende specifieke kwaliteiten te ontwikkelen. ‘Voor een chip in een datacenter is energieverbruik heel belangrijk, maar in een zelfrijdende auto is latency misschien veel belangrijker.’  Het model bedacht totaal andere oplossingen dan mensen met organische vormen en rondingen, die  onderzoekers in eerste instantie als onfabriceerbaar beoordeelden, maar die toch bleken te werken. Goldie: ‘Onderzoekers wilden sommige ontwerpen niet eens gaan bestuderen, omdat ze er zo raar uitzagen.’ Goldie is vooral blij verrast dat het gebruikte deep reinforcement learning model er in slaagde om werkende ontwerpen voor verschillende chip toepassingen te maken. Veel AI-toepassingen zij goed in het uitvoeren van één specifieke taak, maar zijn niet als generalist inzetbaar.

Google heeft chipontwerpen toegepast in de eigen tensor processing unit (TPU), die het bedrijf gebruikt voor machine learning toepassingen in de cloud. Zo heeft een AI dus een chip voor een AI ontworpen.

Het onderzoek geeft hoop dat de wet van Moore (het aantal transistoren op een chip verdubbelt iedere twee jaar) nog iets langer aanhoudt. Het maximum aantal transistoren op een chip is toegenomen van enkele duizenden in de jaren 70 tot vele miljarden nu.

Nature is hoopvol over het nieuwe onderzoek, maar wijst ook op het belang van kennisdeling om de halfgeleiderindustrie minder te concentreren en daarmee robuuster te maken om tekorten zoals nu te voorkomen. TSMC in Taiwan is bijvoorbeeld in zijn eentje goed voor 28% van de productiecapaciteit in de wereld.

Ontvang de nieuwsbrief

Meld je nu aan!

Gratis proefabonnement TW

Bestel nu 2 gratis proefnummers TW