Wat is een supercomputer en waar komen ze vandaan?
Supercomputers zijn iets raar. De term wijst op iets zo abstract dat veel mensen het idee krijgen dat ze nutteloos zijn. Of dat ze tussen landen onderling gebruikt worden om suprematie ten opzichte van elkaar te bewijzen, in een soort van ‘wie heeft de grootste’-wedstrijd. Terwijl dat niet helemaal onwaar is, staan ze echter ook in voor bijvoorbeeld alle grote wetenschappelijke vooruitgang. Supercomputers worden daarom voornamelijk gebruikt om grote hoeveelheden data te verwerken. Wie zijn ze, wat doen ze en waar komen ze vandaan?
Mechanische rekenmachine
Een computer is vandaag de dag supercomplex. Ik ken haast niemand die zo’n ding uit elkaar kan halen, tot het laatste schroefje of chipje, om er later opnieuw een werkend exemplaar van te maken. Ooit was het echter anders. Zo werkten in vroeger tijden computers en informaticasystemen nog met ponskaarten. Deze kaarten bestonden uit lijntjes met vakjes waarvan er hier en daar enkelen waren ingekleurd. Het systeem ontstond eigenlijk al in de middeleeuwen en werd gebruikt om muziekdoosjes te laten werken.
Vanaf de tweede helft van de twintigste eeuw werden ze gebruikt om informatieverwerking te automatiseren, denk bijvoorbeeld maar aan multiple choice-examens die er gelijkaardig uitzagen en op die manier werden uitgelezen. Door de zwartgekleurde vakjes kon de ponsmachine namelijk ‘lezen’ wat je antwoord was en aan de hand van een template beslissen of iets al dan niet juist was en de punten optellen. Vandaag wordt alles elektronisch opgeslagen in bits en bytes, maar toen waren deze kaarten de enige methode om informatie machinaal te lezen.
De persoon die met deze ponskaarten de eerste computerachtige machine wilde bouwen, was Charles Babbage. Deze Britse wiskundige en uitvinder wilde een toestel bouwen dat geautomatiseerd kon tellen. Een vroeg concept van een rekenmachine, met andere woorden. Dit toestel wordt alom officieel erkend als zijnde de voorloper van de elektronische computer omdat het berekeningen kon maken, beslissingen moest nemen en uitkomsten kon onthouden.
Hij noemde het ding zijn Analytische Machine, maar werkte hem helaas nooit volledig af. Dit kwam mede door geldproblemen, het feit dat het toestel een stoommachine nodig zou hebben gehad om echt te kunnen werken en bovendien bracht hij constant veranderingen en verfijningen toe aan de plannen, zodat er nooit een finaal ontwerp heeft bestaan. In de twintigste eeuw werd deze machine vervolgens nagemaakt volgens technieken uit de periode van Babbage, om zo aan te tonen dat zijn ontwerpen wel degelijk levensvatbaar waren.
De Analytische Machine was absoluut geen echte supercomputer te noemen, toch was hij in zijn tijd even ophefmakend als een echt exemplaar vandaag. Tenslotte is een Playstation 3 uit 2005 toch ook even krachtig als een supercomputer uit 1996? Het eerste echte computerprogramma werd overigens ook voor deze machine geschreven, door Ada Lovelace, een vrouw.
224 jaar later
Ondanks dat we het werk van Babbage gerust een pioniersrol kunnen toebedelen, heeft hij zo goed als geen invloed gehad op hedendaagse computers. Hij was immer het toonbeeld van de verstrooide professor, wat betekent dat we nooit publicaties van zijn hand hebben gevonden. Om zijn machine na te kunnen bouwen in 1991 moesten de ontwerpers dan ook een deel van zijn uitgevonden principes heruitvinden.
Wel weten we dat Babbage in zijn tijd al werkte met een processor (bij Babbage heette dit de molen) die gescheiden was van het geheugen, wat ook vandaag nog het geval is. Computers komen van erg ver en sommige dingen lijken dus nooit te veranderen.
Allemaal flops
Bij supercomputers draait alles rond de zogenaamde flops. Dit is de afkorting voor floating-point operations per second, zeg maar berekeningen. Hierbij worden gigantische getallen met een relatieve eenvoud verwerkt. Hoe meer flops, hoe sneller een computer berekeningen kan afronden. Vandaar dat we spreken van snelle computers. Als we die flops ontleden naar een veel kleinere schaal, monden we uit bij Gigahertz. Net als bij andere grote getallen volgen de grootheden elkaar op: kilo, mega, giga, tera, peta, exa, zetta, yotta en xera. Elke nieuwe stap is 1000 keer zo groot als de vorige.
Titanen en Melkwegstelsels
De allereerste echte supercomputers werden gebouwd in de jaren ‘60. Het is te zeggen, ‘supercomputers’ werden door IBM reeds in 1928 gebouwd. Elk nieuw model was echter slechts een zucht beter dan het vorige. Dit veranderde met de Wet van Moore. Gordon Moore stelde in 1965 vast dat de berekeningen door microprocessors elke 12 maanden zou verdubbelen. Kort door de bocht zou dat willen zeggen dat een computer elk jaar dubbel zo snel wordt. In 1970 stelde hij deze verwachting bij naar een verdubbeling per 24 maanden, wat nog altijd indrukwekkend is.
Moore kwam aan deze stelling nadat uit zijn analyse bleek dat de processorkracht sinds de jaren ‘40 exponentieel steeg. Deze stelling zette zich door de jaren heen gewoon door, tot 2011. Vanaf dat jaar botste de wetenschap niet enkel tegen de grenzen van de technologische wetenschap, ook de fysische grenzen kwamen in het vizier. Processorkracht neemt vandaag nog steeds grote sprongen, maar exponentieel is die al eventjes niet meer.
De krachtigste supercomputers van vandaag zijn op de eerste plaats Tianhe, op de tweede plaats Titan en op de derde komt Sequoia. Tianhe, die eigenlijk Tianhe-2 heet, want het is al de tweede versie van deze supercomputer, is van Chinese makelij, draait op Linux en haalt 33.863 PFLOPS. De fabrikant heet NUDT en de computer is eigendom van het Nationale Supercomputing Centrum in Guangzhou. Tianhe is Mandarijns voor Melkweg, wat een toepasselijke naam is, aangezien hij een lichtjaar voorsprong heeft op zijn eerste achtervolger. Dat hij op Linux draait, is geen toeval, aangezien je met een vergrootglas moet zoeken naar supersystemen die Linux niet minstens als basisdistributie gebruiken.
Zowel de tweede als de derde plaats gaan naar supercomputers uit de Verenigde Staten. Titan wordt gebouwd door Cray Incorporated, terwijl Sequoia gefabriceerd werd door IBM, een speler die al jaren meegaat. Beiden draaien op Linux en halen respectievelijk 17.590 en 17173 PFLOPS.
Hoewel de Verenigde Staten met maar liefst 5 van de supercomputers in de top tien mag pronken, is China toch de rijzende ster in de Top 500. Dit stoort de VS zo mateloos dat huidig president Barack Obama wetenschappers opgedragen heeft om tegen 2025 een nieuwe supercomputer te bouwen die als eerste ooit een zogenaamde EXAFLOP moet halen.
De supercomputer van vandaag…
…is het spelsysteem van morgen. De Asci Red was in 1996 de snelste supercomputer ter wereld, een toestel dat de overheid van de Verenigde Staten hielp bij zijn atoompprogramma. In 2005 kwam Sony met de Playstation 3, die qua processorkracht krachtiger was. Dit terwijl Asci voor zijn computer een klein gebouw nodig had om alles te kunnen huisvesten, terwijl je de PS3 met gemak in een klein kastje kon schuiven. We mogen niet onderschatten hoe krachtig deze toestellen wel zijn.
Zo zette NASA in 2006 nog alles in op de processor uit een Playstation 1 om Pluto in kaart te kunnen brengen. Ondanks dat het een processor betrof die op het moment van de lancering al 12 jaar oud was, vervulde New Horizons zijn taak met verve. NASA koos voor een oude processor, omdat die zich al bewezen had. Bovendien duurde de ontwikkelingsfase van de sonde zo lang, dat alle technologie eigenlijk al verouderd was bij de lancering.
Een supercomputer van PS3’s
In 2007 had professor Gaurav Khanna nood aan een supercomputer om enkele berekeningen uit te voeren. Professor Khanna is fysicus en gespecialiseerd in zwarte gaten. Samen met de universiteit kocht hij 12 Playstation 3-toestellen, die hij in serie schakelde en hij installeerde er Linux op. Sony kreeg lucht van het plan en doneerde nog eens 4 toestellen aan het ambitieuze project. Toen ook allerhande media op het verhaal sprongen, groeide het systeem al snel naar 200 toestellen.
Nadat ook de Amerikaanse luchtmacht een dergelijke supercomputer wilde bouwen, met de hulp van Khanna, schonk de Amerikaanse overheid nog eens 170 toestellen aan Khanna. Uiteindelijk bouwde de goede professor een supercomputer ter waarde van 75.000 dollar. Als we dit systeem vergelijken met Titan, de tweede snelste supercomputer ter wereld, dan zien we dat een supercomputer van PS3’s 27 miljoen dollar zou kosten om even krachtig te zijn als Titan, die er 97 miljoen kostte. Met een collectie Playstation 4’s zou de prijs nog veel lager zijn, maar die kunnen helaas geen duo besturingssysteem draaien.
Top 500
De Top 500 brengt de krachtigste, snelste, coolste supercomputers van vandaag samen in één lijst. Zoals de titel misschien al doet vermoeden, zijn het er in deze lijst 500 die samenkomen. De lijst wordt sedert 1993 elk jaar tweemaal opgemaakt. Ook Belgische computers maken van tijd tot tijd hun opwachting. De verenigde Staten staat momenteel met het grootste aantal machines in de lijst, met maar liefst 199 toestellen. China volgt met 109 computers. De laatste jaren loopt het aantal van de VS echter almaar meer terug, terwijl China sterk komt opzetten.
En de Belgen?
De Belgen hebben een beetje een haat-liefdeverhouding met de Top 500. Ze komen en gaan, met de regelmaat van een klok. In de lijst van juni 2015 stond er bijvoorbeeld nog één supercomputer van Belgische makelij in de lijst, sinds november 2015 is dat aantal echter opnieuw herleid naar het rondste getal dat het binaire systeem te bieden heeft: nul.
Tegen het midden van het huidige jaar zou de KU Leuven ons land toch opnieuw de lijst kunnen binnenloodsen. Het bouwt namelijk aan een nieuwe supercomputer die ons land zelfs binnen de top 150 moet plaatsen, ook wel eens het Tier 1 genoemd. Het project kost 5,5 miljoen euro, niets vergeleken met Titan die 97 miljoen kostte. De computer zal een berekeningssnelheid halen van 600 teraflops.
Supercomputers zijn iets raar. De term wijst op iets zo abstract dat veel mensen het idee krijgen dat ze nutteloos zijn. Of dat ze tussen landen onderling gebruikt worden om suprematie ten opzichte van elkaar te bewijzen, in een soort van ‘wie heeft de grootste’-wedstrijd. Terwijl dat niet helemaal onwaar is, staan ze echter ook in voor bijvoorbeeld alle grote wetenschappelijke vooruitgang. Supercomputers worden daarom voornamelijk gebruikt om grote hoeveelheden data te verwerken. Wie zijn ze, wat doen ze en waar komen ze vandaan?
Mechanische rekenmachine
Een computer is vandaag de dag supercomplex. Ik ken haast niemand die zo’n ding uit elkaar kan halen, tot het laatste schroefje of chipje, om er later opnieuw een werkend exemplaar van te maken. Ooit was het echter anders. Zo werkten in vroeger tijden computers en informaticasystemen nog met ponskaarten. Deze kaarten bestonden uit lijntjes met vakjes waarvan er hier en daar enkelen waren ingekleurd. Het systeem ontstond eigenlijk al in de middeleeuwen en werd gebruikt om muziekdoosjes te laten werken.
Vanaf de tweede helft van de twintigste eeuw werden ze gebruikt om informatieverwerking te automatiseren, denk bijvoorbeeld maar aan multiple choice-examens die er gelijkaardig uitzagen en op die manier werden uitgelezen. Door de zwartgekleurde vakjes kon de ponsmachine namelijk ‘lezen’ wat je antwoord was en aan de hand van een template beslissen of iets al dan niet juist was en de punten optellen. Vandaag wordt alles elektronisch opgeslagen in bits en bytes, maar toen waren deze kaarten de enige methode om informatie machinaal te lezen.
De persoon die met deze ponskaarten de eerste computerachtige machine wilde bouwen, was Charles Babbage. Deze Britse wiskundige en uitvinder wilde een toestel bouwen dat geautomatiseerd kon tellen. Een vroeg concept van een rekenmachine, met andere woorden. Dit toestel wordt alom officieel erkend als zijnde de voorloper van de elektronische computer omdat het berekeningen kon maken, beslissingen moest nemen en uitkomsten kon onthouden.
Hij noemde het ding zijn Analytische Machine, maar werkte hem helaas nooit volledig af. Dit kwam mede door geldproblemen, het feit dat het toestel een stoommachine nodig zou hebben gehad om echt te kunnen werken en bovendien bracht hij constant veranderingen en verfijningen toe aan de plannen, zodat er nooit een finaal ontwerp heeft bestaan. In de twintigste eeuw werd deze machine vervolgens nagemaakt volgens technieken uit de periode van Babbage, om zo aan te tonen dat zijn ontwerpen wel degelijk levensvatbaar waren.
De Analytische Machine was absoluut geen echte supercomputer te noemen, toch was hij in zijn tijd even ophefmakend als een echt exemplaar vandaag. Tenslotte is een Playstation 3 uit 2005 toch ook even krachtig als een supercomputer uit 1996? Het eerste echte computerprogramma werd overigens ook voor deze machine geschreven, door Ada Lovelace, een vrouw.
224 jaar later
Ondanks dat we het werk van Babbage gerust een pioniersrol kunnen toebedelen, heeft hij zo goed als geen invloed gehad op hedendaagse computers. Hij was immer het toonbeeld van de verstrooide professor, wat betekent dat we nooit publicaties van zijn hand hebben gevonden. Om zijn machine na te kunnen bouwen in 1991 moesten de ontwerpers dan ook een deel van zijn uitgevonden principes heruitvinden.
Wel weten we dat Babbage in zijn tijd al werkte met een processor (bij Babbage heette dit de molen) die gescheiden was van het geheugen, wat ook vandaag nog het geval is. Computers komen van erg ver en sommige dingen lijken dus nooit te veranderen.
Allemaal flops
Bij supercomputers draait alles rond de zogenaamde flops. Dit is de afkorting voor floating-point operations per second, zeg maar berekeningen. Hierbij worden gigantische getallen met een relatieve eenvoud verwerkt. Hoe meer flops, hoe sneller een computer berekeningen kan afronden. Vandaar dat we spreken van snelle computers. Als we die flops ontleden naar een veel kleinere schaal, monden we uit bij Gigahertz. Net als bij andere grote getallen volgen de grootheden elkaar op: kilo, mega, giga, tera, peta, exa, zetta, yotta en xera. Elke nieuwe stap is 1000 keer zo groot als de vorige.
Titanen en Melkwegstelsels
De allereerste echte supercomputers werden gebouwd in de jaren ‘60. Het is te zeggen, ‘supercomputers’ werden door IBM reeds in 1928 gebouwd. Elk nieuw model was echter slechts een zucht beter dan het vorige. Dit veranderde met de Wet van Moore. Gordon Moore stelde in 1965 vast dat de berekeningen door microprocessors elke 12 maanden zou verdubbelen. Kort door de bocht zou dat willen zeggen dat een computer elk jaar dubbel zo snel wordt. In 1970 stelde hij deze verwachting bij naar een verdubbeling per 24 maanden, wat nog altijd indrukwekkend is.
Moore kwam aan deze stelling nadat uit zijn analyse bleek dat de processorkracht sinds de jaren ‘40 exponentieel steeg. Deze stelling zette zich door de jaren heen gewoon door, tot 2011. Vanaf dat jaar botste de wetenschap niet enkel tegen de grenzen van de technologische wetenschap, ook de fysische grenzen kwamen in het vizier. Processorkracht neemt vandaag nog steeds grote sprongen, maar exponentieel is die al eventjes niet meer.
De krachtigste supercomputers van vandaag zijn op de eerste plaats Tianhe, op de tweede plaats Titan en op de derde komt Sequoia. Tianhe, die eigenlijk Tianhe-2 heet, want het is al de tweede versie van deze supercomputer, is van Chinese makelij, draait op Linux en haalt 33.863 PFLOPS. De fabrikant heet NUDT en de computer is eigendom van het Nationale Supercomputing Centrum in Guangzhou. Tianhe is Mandarijns voor Melkweg, wat een toepasselijke naam is, aangezien hij een lichtjaar voorsprong heeft op zijn eerste achtervolger. Dat hij op Linux draait, is geen toeval, aangezien je met een vergrootglas moet zoeken naar supersystemen die Linux niet minstens als basisdistributie gebruiken.
Zowel de tweede als de derde plaats gaan naar supercomputers uit de Verenigde Staten. Titan wordt gebouwd door Cray Incorporated, terwijl Sequoia gefabriceerd werd door IBM, een speler die al jaren meegaat. Beiden draaien op Linux en halen respectievelijk 17.590 en 17173 PFLOPS.
Hoewel de Verenigde Staten met maar liefst 5 van de supercomputers in de top tien mag pronken, is China toch de rijzende ster in de Top 500. Dit stoort de VS zo mateloos dat huidig president Barack Obama wetenschappers opgedragen heeft om tegen 2025 een nieuwe supercomputer te bouwen die als eerste ooit een zogenaamde EXAFLOP moet halen.
De supercomputer van vandaag…
…is het spelsysteem van morgen. De Asci Red was in 1996 de snelste supercomputer ter wereld, een toestel dat de overheid van de Verenigde Staten hielp bij zijn atoompprogramma. In 2005 kwam Sony met de Playstation 3, die qua processorkracht krachtiger was. Dit terwijl Asci voor zijn computer een klein gebouw nodig had om alles te kunnen huisvesten, terwijl je de PS3 met gemak in een klein kastje kon schuiven. We mogen niet onderschatten hoe krachtig deze toestellen wel zijn.
Zo zette NASA in 2006 nog alles in op de processor uit een Playstation 1 om Pluto in kaart te kunnen brengen. Ondanks dat het een processor betrof die op het moment van de lancering al 12 jaar oud was, vervulde New Horizons zijn taak met verve. NASA koos voor een oude processor, omdat die zich al bewezen had. Bovendien duurde de ontwikkelingsfase van de sonde zo lang, dat alle technologie eigenlijk al verouderd was bij de lancering.
Een supercomputer van PS3’s
In 2007 had professor Gaurav Khanna nood aan een supercomputer om enkele berekeningen uit te voeren. Professor Khanna is fysicus en gespecialiseerd in zwarte gaten. Samen met de universiteit kocht hij 12 Playstation 3-toestellen, die hij in serie schakelde en hij installeerde er Linux op. Sony kreeg lucht van het plan en doneerde nog eens 4 toestellen aan het ambitieuze project. Toen ook allerhande media op het verhaal sprongen, groeide het systeem al snel naar 200 toestellen.
Nadat ook de Amerikaanse luchtmacht een dergelijke supercomputer wilde bouwen, met de hulp van Khanna, schonk de Amerikaanse overheid nog eens 170 toestellen aan Khanna. Uiteindelijk bouwde de goede professor een supercomputer ter waarde van 75.000 dollar. Als we dit systeem vergelijken met Titan, de tweede snelste supercomputer ter wereld, dan zien we dat een supercomputer van PS3’s 27 miljoen dollar zou kosten om even krachtig te zijn als Titan, die er 97 miljoen kostte. Met een collectie Playstation 4’s zou de prijs nog veel lager zijn, maar die kunnen helaas geen duo besturingssysteem draaien.
Top 500
De Top 500 brengt de krachtigste, snelste, coolste supercomputers van vandaag samen in één lijst. Zoals de titel misschien al doet vermoeden, zijn het er in deze lijst 500 die samenkomen. De lijst wordt sedert 1993 elk jaar tweemaal opgemaakt. Ook Belgische computers maken van tijd tot tijd hun opwachting. De verenigde Staten staat momenteel met het grootste aantal machines in de lijst, met maar liefst 199 toestellen. China volgt met 109 computers. De laatste jaren loopt het aantal van de VS echter almaar meer terug, terwijl China sterk komt opzetten.
En de Belgen?
De Belgen hebben een beetje een haat-liefdeverhouding met de Top 500. Ze komen en gaan, met de regelmaat van een klok. In de lijst van juni 2015 stond er bijvoorbeeld nog één supercomputer van Belgische makelij in de lijst, sinds november 2015 is dat aantal echter opnieuw herleid naar het rondste getal dat het binaire systeem te bieden heeft: nul.
Tegen het midden van het huidige jaar zou de KU Leuven ons land toch opnieuw de lijst kunnen binnenloodsen. Het bouwt namelijk aan een nieuwe supercomputer die ons land zelfs binnen de top 150 moet plaatsen, ook wel eens het Tier 1 genoemd. Het project kost 5,5 miljoen euro, niets vergeleken met Titan die 97 miljoen kostte. De computer zal een berekeningssnelheid halen van 600 teraflops.