Test

Dit is een popup

Google beschermt zijn oprichters tegen Terminators

Een nieuw bestandje op de Google-servers moet de oprichters van Google beschermen tegen een aanval van Terminators uit de toekomst.

Een nieuw bestandje op de Google-servers, killer-robots.txt, moet de oprichters van Google beschermen tegen een aanval van Terminators uit de toekomst.

Google begint meer en meer op Skynet uit de Terminatorfilms te lijken, beseffen nu ook de oprichters van de internetgigant. Kwade wil en artificiële intelligentie ontbreken, maar met Android is Google op het merendeel van onze telefoons aanwezig en binnenkort zullen onze huizen zelfs door Google-domotica onderhouden worden.

[related_article id=”158901″]

Oprichters Larry Page en Sergey Brin zien de bui al hangen, en wapenen zich tegen een toekomstige aanval van een Terminator, al dan niet gebouwd door een toekomstige versie van het almachtige Google. Ze doen dat door het bestand killer-robots.txt aan hun server toe te voegen.

Killer-robots
Killer-robots.txt is een parodie op robots.txt. Dat laatste is een bestand dat beheerders op hun website moeten plaatsen wanneer ze niet willen dat die bezocht wordt door zogenaamde webcrawlers. Dat zijn geautomatiseerde systemen die onder meer gebruikt worden door Google om het wereldwijde web te indexeren, maar ook door spammers om internetadressen te verzamelen.

Robots.txt bevat enkele lijnen eenvoudige code. Bovenaan staat User-agent: *. Het sterretje betekent dat de informatie in het bestand voor alle webcrawlers bedoeld is. Je kan er desgewenst de naam van een specifieke crawler neertypen. Onder die eerste lijn staat de regel Disallow: /. Die regel zegt aan de robots welke delen van de website niet voor hen toeganklijk zijn. Een eenvoudige slash betekent dat de crawler de hele website niet mag bezoeken.

Killer-robots.txt bevat naar analogie de volgende lijnen code:

User-Agent: T-1000

User-Agent: T-800

Disallow: /+LarryPage

Disallow: /+SergeyBrin

In robots.txt-taal wil dat zeggen dat de robots T-1000 en T-800, allebei moordrobots uit de Terminatorfilms die als missie hebben iemand te doden, geen toegang hebben tot Larry Page en Sergey Brin. Of het bestandje beide heren zal redden wanneer het zo ver is, valt te betwijfelen.

Het zou natuurlijk kunnen dat de oprichters niet echt vrezen voor hun leven, en dat de 20ste verjaardag van het robots.txt-bestandje er iets mee te maken heeft, maar dat is pure speculatie.

Een nieuw bestandje op de Google-servers, killer-robots.txt, moet de oprichters van Google beschermen tegen een aanval van Terminators uit de toekomst.

Google begint meer en meer op Skynet uit de Terminatorfilms te lijken, beseffen nu ook de oprichters van de internetgigant. Kwade wil en artificiële intelligentie ontbreken, maar met Android is Google op het merendeel van onze telefoons aanwezig en binnenkort zullen onze huizen zelfs door Google-domotica onderhouden worden.

[related_article id=”158901″]

Oprichters Larry Page en Sergey Brin zien de bui al hangen, en wapenen zich tegen een toekomstige aanval van een Terminator, al dan niet gebouwd door een toekomstige versie van het almachtige Google. Ze doen dat door het bestand killer-robots.txt aan hun server toe te voegen.

Killer-robots
Killer-robots.txt is een parodie op robots.txt. Dat laatste is een bestand dat beheerders op hun website moeten plaatsen wanneer ze niet willen dat die bezocht wordt door zogenaamde webcrawlers. Dat zijn geautomatiseerde systemen die onder meer gebruikt worden door Google om het wereldwijde web te indexeren, maar ook door spammers om internetadressen te verzamelen.

Robots.txt bevat enkele lijnen eenvoudige code. Bovenaan staat User-agent: *. Het sterretje betekent dat de informatie in het bestand voor alle webcrawlers bedoeld is. Je kan er desgewenst de naam van een specifieke crawler neertypen. Onder die eerste lijn staat de regel Disallow: /. Die regel zegt aan de robots welke delen van de website niet voor hen toeganklijk zijn. Een eenvoudige slash betekent dat de crawler de hele website niet mag bezoeken.

Killer-robots.txt bevat naar analogie de volgende lijnen code:

User-Agent: T-1000

User-Agent: T-800

Disallow: /+LarryPage

Disallow: /+SergeyBrin

In robots.txt-taal wil dat zeggen dat de robots T-1000 en T-800, allebei moordrobots uit de Terminatorfilms die als missie hebben iemand te doden, geen toegang hebben tot Larry Page en Sergey Brin. Of het bestandje beide heren zal redden wanneer het zo ver is, valt te betwijfelen.

Het zou natuurlijk kunnen dat de oprichters niet echt vrezen voor hun leven, en dat de 20ste verjaardag van het robots.txt-bestandje er iets mee te maken heeft, maar dat is pure speculatie.

Beveiligingbeveiliginggooglekiller-robots-txtlarry pagenieuwsrobots-txtsergey brinterminator

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!