Test

Dit is een popup

Open brief: artificiële intelligentie kan mensheid onderwerpen

Experts over de hele wereld ondertekenen de brief. Het Future of Life Institute wil dat de mensheid het pad naar de ontwikkeling van artificiële intelligentie voorzichtig en verantwoord bewandelt.

We zijn zeker nog tientallen jaar verwijderd van de technologische vaardigheid om onze eigen sociopathische supercomputer te ontwikkelen die de mensheid tot slaven reduceert. Experts op het gebied van kunstmatige intelligentie bereiden zich echter al voor het op ergste wanneer – dus niet als – dit gebeurt.

Artificial Intelligence (AI)-experts over de hele wereld ondertekenen een open brief die zondag openbaar is gemaakt door de Future of Life Institute. In het schrijven belooft het instituut dat het veilig en voorzichtig de vooruitgang in het veld coördineert en erover communiceert. Op deze manier wil het ervoor zorgen dat het niet te groot groeit, waardoor de mensheid de controle verliest.

Ongekende voordelen
Tot de mensen die de brief ondertekenden behoren onder meer de mede-oprichters van Deep Mind – het Britse AI-bedrijf dat twaalf maanden geleden door Google werd ingelijfd, diverse professors van MIT en experts bij enkele van de grootste techbedrijven, waaronder mensen uit het team van IBM"s Watson supercomputer en Microsoft Research.

“Succes in de zoektocht naar kunstmatige intelligentie heeft de potentie om de mensheid ongekende voordelen te schenken. Daarom is het de moeite waard om te onderzoeken hoe we deze voordelen kunnen maximaliseren en hoe we daarbij de potentiële valkuilen kunnen omzeilen”, staat in de samenvatting van de brief te lezen. Bij de brief hoort een onderzoeksdocument waarin wordt aangegeven wat deze valkuilen zijn en wat nodig is om de zoektocht naar kunstmatige intelligentie op een veilige en verantwoorde manier voort te zetten.

Zorgpunten
De grootste zorgen voor het Future of Life Institute zijn gebieden als machine-ethiek, zelfrijdende auto"s – zijn de voertuigen in staat om het maximale risico in te schatten zonder de passagiers in gevaar te brengen - en geautomatiseerde wapensystemen. Dit is slechts een greep uit de problemen die de toepassing van kunstmatige intelligentie op kan leveren.

Het plan op de lange termijn is om fictionele dystopieën niet langer als fantasie en verzinsels te bestempelen. De mensheid moet zich voorbereiden op de mogelijkheid dat een intelligentie groter dan de onze, op een dag tegen zijn programmeercode in kan gaan.

Het Future of Life Institute is een onderzoeksorganisatie waar alleen vrijwilligers werken. Het primaire doel is het potentiële risico op menselijk niveau af te wenden wanneer een door de mens ontwikkelde intelligentie exponentieel begint te groeien. Met andere woorden: het zijn de eerste vormen van het verzet zoals dat ook in de Terminator-films zit en het probeert Skynet uit te schakelen voordat het ons volledig vernietigt. Het instituut is opgericht door een keur aan gedecoreerde wiskundigen en computerwetenschappers over de hele wereld, onder wie mede-bedenker van Skype Jaan Tallinn en MIT-professor Max Tegmark.

Oproepen van de duivel
Elon Musk, baas van SpaceX en Tesla, zit in de Wetenschappelijke Adviesraad van het instituut. De laatste jaren is hij al vaak begonnen over de ontwikkeling van kunstmatige intelligentie. Dit noemde hij het “oproepen van de duivel” in een lezing op MIT in oktober vorig jaar. Het actief investeren in dit werkveld kan volgens hem gevaarlijker zijn dan nucleaire wapens. Daarom is het belangrijk om het goed in de gaten te houden.

“Ik ben steeds meer geneigd om te denken dat er regelgevend toezicht moet komen, misschien op nationaal en internationaal niveau, gewoon om er zeker van te zijn dat we niet iets ontzettend stoms doen”, heeft Musk ooit gezegd.

Technologie te slim
De beroemde natuurkundige Stephen Hawking is ook voorzichtig met kunstmatige intelligentie. Hij gebruikte de vorig jaar verschenen film Transcendence om de gevaren van AI aan te stippen. Hierin wordt stilgestaan bij je intelligentie na je dood.

“Het is niet moeilijk voor te stellen dat een dergelijke technologie slimmer is dan de financiële markten, menselijke onderzoekers en wereldleiders. Het kan zelfs wapens ontwikkelen die wij niet begrijpen”, schreef Hawking in een artikel voor de Indepent in mei 2014. Dit deed hij samen met Max Tegmark, Stuart Russell en Frank Wilczek, allen lid van het Future of Life Institute.

“De impact van kunstmatige intelligentie op korte termijn hangt af van degene die het systeem beheert”, voegden ze nog toe. “De gevolgen op lange termijn zijn afhankelijk van het feit of je de AI überhaupt kunt beheren.”

We zijn zeker nog tientallen jaar verwijderd van de technologische vaardigheid om onze eigen sociopathische supercomputer te ontwikkelen die de mensheid tot slaven reduceert. Experts op het gebied van kunstmatige intelligentie bereiden zich echter al voor het op ergste wanneer – dus niet als – dit gebeurt.

Artificial Intelligence (AI)-experts over de hele wereld ondertekenen een open brief die zondag openbaar is gemaakt door de Future of Life Institute. In het schrijven belooft het instituut dat het veilig en voorzichtig de vooruitgang in het veld coördineert en erover communiceert. Op deze manier wil het ervoor zorgen dat het niet te groot groeit, waardoor de mensheid de controle verliest.

Ongekende voordelen
Tot de mensen die de brief ondertekenden behoren onder meer de mede-oprichters van Deep Mind – het Britse AI-bedrijf dat twaalf maanden geleden door Google werd ingelijfd, diverse professors van MIT en experts bij enkele van de grootste techbedrijven, waaronder mensen uit het team van IBM"s Watson supercomputer en Microsoft Research.

“Succes in de zoektocht naar kunstmatige intelligentie heeft de potentie om de mensheid ongekende voordelen te schenken. Daarom is het de moeite waard om te onderzoeken hoe we deze voordelen kunnen maximaliseren en hoe we daarbij de potentiële valkuilen kunnen omzeilen”, staat in de samenvatting van de brief te lezen. Bij de brief hoort een onderzoeksdocument waarin wordt aangegeven wat deze valkuilen zijn en wat nodig is om de zoektocht naar kunstmatige intelligentie op een veilige en verantwoorde manier voort te zetten.

Zorgpunten
De grootste zorgen voor het Future of Life Institute zijn gebieden als machine-ethiek, zelfrijdende auto"s – zijn de voertuigen in staat om het maximale risico in te schatten zonder de passagiers in gevaar te brengen - en geautomatiseerde wapensystemen. Dit is slechts een greep uit de problemen die de toepassing van kunstmatige intelligentie op kan leveren.

Het plan op de lange termijn is om fictionele dystopieën niet langer als fantasie en verzinsels te bestempelen. De mensheid moet zich voorbereiden op de mogelijkheid dat een intelligentie groter dan de onze, op een dag tegen zijn programmeercode in kan gaan.

Het Future of Life Institute is een onderzoeksorganisatie waar alleen vrijwilligers werken. Het primaire doel is het potentiële risico op menselijk niveau af te wenden wanneer een door de mens ontwikkelde intelligentie exponentieel begint te groeien. Met andere woorden: het zijn de eerste vormen van het verzet zoals dat ook in de Terminator-films zit en het probeert Skynet uit te schakelen voordat het ons volledig vernietigt. Het instituut is opgericht door een keur aan gedecoreerde wiskundigen en computerwetenschappers over de hele wereld, onder wie mede-bedenker van Skype Jaan Tallinn en MIT-professor Max Tegmark.

Oproepen van de duivel
Elon Musk, baas van SpaceX en Tesla, zit in de Wetenschappelijke Adviesraad van het instituut. De laatste jaren is hij al vaak begonnen over de ontwikkeling van kunstmatige intelligentie. Dit noemde hij het “oproepen van de duivel” in een lezing op MIT in oktober vorig jaar. Het actief investeren in dit werkveld kan volgens hem gevaarlijker zijn dan nucleaire wapens. Daarom is het belangrijk om het goed in de gaten te houden.

“Ik ben steeds meer geneigd om te denken dat er regelgevend toezicht moet komen, misschien op nationaal en internationaal niveau, gewoon om er zeker van te zijn dat we niet iets ontzettend stoms doen”, heeft Musk ooit gezegd.

Technologie te slim
De beroemde natuurkundige Stephen Hawking is ook voorzichtig met kunstmatige intelligentie. Hij gebruikte de vorig jaar verschenen film Transcendence om de gevaren van AI aan te stippen. Hierin wordt stilgestaan bij je intelligentie na je dood.

“Het is niet moeilijk voor te stellen dat een dergelijke technologie slimmer is dan de financiële markten, menselijke onderzoekers en wereldleiders. Het kan zelfs wapens ontwikkelen die wij niet begrijpen”, schreef Hawking in een artikel voor de Indepent in mei 2014. Dit deed hij samen met Max Tegmark, Stuart Russell en Frank Wilczek, allen lid van het Future of Life Institute.

“De impact van kunstmatige intelligentie op korte termijn hangt af van degene die het systeem beheert”, voegden ze nog toe. “De gevolgen op lange termijn zijn afhankelijk van het feit of je de AI überhaupt kunt beheren.”

aifuture of lifehawkingkunstmatige intelligentienieuws

Gerelateerde artikelen

Volg ons

ICT Jaarboek 2021-2022 – TechPulse Business

ICT Jaarboek 2021-2022 – TechPulse Business

Bestel nu!