Test

Dit is een popup

Google demonstreert supersnel trainingssysteem voor AI

Dankzij een op maat gemaakte AI-processor kan Google indrukwekkende snelheden leveren om kunstmatige intelligentie op zo kort mogelijk tijd slim te maken.

Een artificiële intelligentie is maar zo slim als de hoeveelheden data die je het kan voederen om zijn kennis te trainen. Om dat proces sneller te laten verlopen, onthulde Google op I/O zijn Tensor Processor Unit (TPU) 2.0: computerhardware op maat gemaakt voor het trainen van kunstmatige intelligentie.

CEO Sundar Pichai gaf het aan in zijn openingsspeech op Google I/O: het bedrijf heeft de afgelopen twee jaar een belangrijke strategieverandering doorgevoerd, waarbij de focus op mobiel is verschoven naar die op artificiële intelligentie. Aankondigingen als die van Google Lens en de verbeteringen bij Google Foto’s onderstrepen die omschakeling.

Datacenter

[related_article id=”211309″]

Om de capaciteiten van AI te vergroten en verder te ontwikkelen, creëerde Google gespecialiseerde hardware: TPU’s. Standaard zet men voor het trainen van AI de kracht van GPU’s in, zoals bijvoorbeeld bij Facebook gebeurt, maar Google opteerde dus voor een zelfgebouwde en geoptimaliseerde oplossing.

De TPU’s vormen tegenwoordig een belangrijk onderdeel van Googles datacenters en zijn de motor van heel wat slimme functies op Google-diensten. Ze worden ingeschakeld elke keer als iemand woorden intikt op de Google zoekmachine, ze maken vloeiende vertalingen mogelijk bij Google Translate, en zorgen ervoor dat apps als Google Foto’s en Google Assistant objecten op foto’s kunnen herkennen.

Supercomputer

Eén TPU voorziet 180 teraflops aan rekenkracht. Om het maximale te halen uit zijn op maat gemaakte chips ontwierp Google een manier om deze aan elkaar te koppelen. Een TPU Pod bestaat uit 64 processors en heeft een gecombineerd vermogen van 11,5 petaflops – dat is al een serieuze supercomputer. Google maakt zich sterk dat zijn eigen chips duidelijk de betere optie zijn. “Ons  nieuwe grootschalige vertalingsmodel vraagt een volle dag om te trainen op 32 van ’s werelds krachtigste commercieel verkrijgbare GPU’s, terwijl één achtste van een TPU Pod hetzelfde kan doen op een namiddag,” verklaart Google AI-specialist Jeff Dean trots tijdens een persconferentie.

Simultaan werken

Google biedt de kracht van zijn TPU’s ook aan andere ontwikkelaars en bedrijven aan, via het opensource-platform TensorFlow en de Google Compute Engine-service op Google Cloud. Niet alleen op het vlak van training is de tweede generatie van de Google TPU een verbetering. De eerste editie van de chip kon maar één van de twee belangrijke taken van een AI tegelijk uitvoeren: ofwel training, ofwel interferentie. Interferentie is de naam die men geeft aan het proces waarbij een AI berekeningen maakt op basis van zijn kennis – bijvoorbeeld het analyseren en herkennen van een kat op een foto. De Google TPU 2.0 kan beide taken simultaan uitvoeren, wat opnieuw de snelheid van AI-functies verhoogt.

Een artificiële intelligentie is maar zo slim als de hoeveelheden data die je het kan voederen om zijn kennis te trainen. Om dat proces sneller te laten verlopen, onthulde Google op I/O zijn Tensor Processor Unit (TPU) 2.0: computerhardware op maat gemaakt voor het trainen van kunstmatige intelligentie.

CEO Sundar Pichai gaf het aan in zijn openingsspeech op Google I/O: het bedrijf heeft de afgelopen twee jaar een belangrijke strategieverandering doorgevoerd, waarbij de focus op mobiel is verschoven naar die op artificiële intelligentie. Aankondigingen als die van Google Lens en de verbeteringen bij Google Foto’s onderstrepen die omschakeling.

Datacenter

[related_article id=”211309″]

Om de capaciteiten van AI te vergroten en verder te ontwikkelen, creëerde Google gespecialiseerde hardware: TPU’s. Standaard zet men voor het trainen van AI de kracht van GPU’s in, zoals bijvoorbeeld bij Facebook gebeurt, maar Google opteerde dus voor een zelfgebouwde en geoptimaliseerde oplossing.

De TPU’s vormen tegenwoordig een belangrijk onderdeel van Googles datacenters en zijn de motor van heel wat slimme functies op Google-diensten. Ze worden ingeschakeld elke keer als iemand woorden intikt op de Google zoekmachine, ze maken vloeiende vertalingen mogelijk bij Google Translate, en zorgen ervoor dat apps als Google Foto’s en Google Assistant objecten op foto’s kunnen herkennen.

Supercomputer

Eén TPU voorziet 180 teraflops aan rekenkracht. Om het maximale te halen uit zijn op maat gemaakte chips ontwierp Google een manier om deze aan elkaar te koppelen. Een TPU Pod bestaat uit 64 processors en heeft een gecombineerd vermogen van 11,5 petaflops – dat is al een serieuze supercomputer. Google maakt zich sterk dat zijn eigen chips duidelijk de betere optie zijn. “Ons  nieuwe grootschalige vertalingsmodel vraagt een volle dag om te trainen op 32 van ’s werelds krachtigste commercieel verkrijgbare GPU’s, terwijl één achtste van een TPU Pod hetzelfde kan doen op een namiddag,” verklaart Google AI-specialist Jeff Dean trots tijdens een persconferentie.

Simultaan werken

Google biedt de kracht van zijn TPU’s ook aan andere ontwikkelaars en bedrijven aan, via het opensource-platform TensorFlow en de Google Compute Engine-service op Google Cloud. Niet alleen op het vlak van training is de tweede generatie van de Google TPU een verbetering. De eerste editie van de chip kon maar één van de twee belangrijke taken van een AI tegelijk uitvoeren: ofwel training, ofwel interferentie. Interferentie is de naam die men geeft aan het proces waarbij een AI berekeningen maakt op basis van zijn kennis – bijvoorbeeld het analyseren en herkennen van een kat op een foto. De Google TPU 2.0 kan beide taken simultaan uitvoeren, wat opnieuw de snelheid van AI-functies verhoogt.

aigoogleGoogle I/Otensorflowtpu

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!