Musk doneert 10 miljoen om Terminator-scenario te voorkomen
Dat Skynet de mensheid uitroeit werd tot voor kort als sciencefiction aangezien. Eerder deze week schaarden vooraanstaande artificiële intelligentie (AI)-experts van over de hele wereld zich echter achter een open brief die het fiction-deel van dat label in vraag stelt. De wetenschappers in kwestie waren niet de minsten. Denk aan Stephen Hawking, de oprichters van Deep Mind, slimme koppen van MIT, oudgediende van IBM’s Watsonproject maar ook SpaceX en Tesla-baas Elon Musk.
Allemaal waarschuwden ze ons dat de ontwikkeling van AI beter vlot dan we vermoedden, en dat er heel reële risico’s verbonden zijn aan het maken van een echte artificiële intelligentie. Natuurlijk wil niemand het onderzoek verbieden omdat het potentieel gevaarlijk is, maar een doordachte regulering is voor de bezorgde wetenschappers een must.
Geld voor onderzoek
Een bankbiljet zegt meer dan duizend brieven en dus zet Elon Musk zijn mening kracht bij met een flinke kapitaalinjectie ten voordele van het Future of Life-instituut. Dat weet The Verge. Dat instituut wil verantwoord en doordacht onderzoek naar AI stimuleren door het te sponsoren. Future of Life zal de gedoneerde tien miljoen dollar van Musk verdelen onder onderzoek dat aan enkele criteria voldoet. Musk en onderzoeker Thomas Dietterich hopen bovendien dat het geld andere instellingen en mensen aanzet om mee te investeren in veilig onderzoek naar AI.
Dave
Voor een echt volwaardig AI stelt FoL vier eisen: onderzoekers moeten nagaan of ze hun systeem juist bouwen en of ze het juiste systeem bouwen dat de juiste gedragingen ten toon zal spreiden. Verder moeten ze denken aan een systeem dat menselijk misbruik kan tegengaan, maar de vierde eis is misschien wel de belangrijkste: controle. Een zinnetje bij dit laatste aspect verduidelijkt meteen wat het instituut daarmee bedoelt: “Ok, ik heb het systeem toch fout gebouwd, kan ik het nog repareren?” Controle is van levensbelang omdat het wetenschappers in staat stelt de macht te behouden over een AI die misschien slimmer is dan zijzelf, en er niet het juiste gedachtegoed op nahoudt (“I’m sorry Dave”).
Gevaarlijker dan de atoombom
Elon Musk toont met zijn bijdrage aan dat we ons wel degelijk zorgen moeten maken over ondoordacht onderzoek naar AI. Hij noemt AI potentieel gevaarlijker dan de atoombom en voegt eraan toe dat er heel realistische scenario’s te bedenken zijn waarin er iets misloopt met AI en de heropbouw van de menselijke beschaving zich niet voordoet. “Als het risico zo groot is, dan moeten we proactief zijn, en niet reactief”, aldus Musk.
Laten we dus met z’n allen hopen dat het Future of Life-instituut met de nodige fondsen de ontwikkeling van AI in de juiste richting kan duwen, zodat we in de toekomst niet collectief dienen als batterij voor onze mechanische meesters.
Dat Skynet de mensheid uitroeit werd tot voor kort als sciencefiction aangezien. Eerder deze week schaarden vooraanstaande artificiële intelligentie (AI)-experts van over de hele wereld zich echter achter een open brief die het fiction-deel van dat label in vraag stelt. De wetenschappers in kwestie waren niet de minsten. Denk aan Stephen Hawking, de oprichters van Deep Mind, slimme koppen van MIT, oudgediende van IBM’s Watsonproject maar ook SpaceX en Tesla-baas Elon Musk.
Allemaal waarschuwden ze ons dat de ontwikkeling van AI beter vlot dan we vermoedden, en dat er heel reële risico’s verbonden zijn aan het maken van een echte artificiële intelligentie. Natuurlijk wil niemand het onderzoek verbieden omdat het potentieel gevaarlijk is, maar een doordachte regulering is voor de bezorgde wetenschappers een must.
Geld voor onderzoek
Een bankbiljet zegt meer dan duizend brieven en dus zet Elon Musk zijn mening kracht bij met een flinke kapitaalinjectie ten voordele van het Future of Life-instituut. Dat weet The Verge. Dat instituut wil verantwoord en doordacht onderzoek naar AI stimuleren door het te sponsoren. Future of Life zal de gedoneerde tien miljoen dollar van Musk verdelen onder onderzoek dat aan enkele criteria voldoet. Musk en onderzoeker Thomas Dietterich hopen bovendien dat het geld andere instellingen en mensen aanzet om mee te investeren in veilig onderzoek naar AI.
Dave
Voor een echt volwaardig AI stelt FoL vier eisen: onderzoekers moeten nagaan of ze hun systeem juist bouwen en of ze het juiste systeem bouwen dat de juiste gedragingen ten toon zal spreiden. Verder moeten ze denken aan een systeem dat menselijk misbruik kan tegengaan, maar de vierde eis is misschien wel de belangrijkste: controle. Een zinnetje bij dit laatste aspect verduidelijkt meteen wat het instituut daarmee bedoelt: “Ok, ik heb het systeem toch fout gebouwd, kan ik het nog repareren?” Controle is van levensbelang omdat het wetenschappers in staat stelt de macht te behouden over een AI die misschien slimmer is dan zijzelf, en er niet het juiste gedachtegoed op nahoudt (“I’m sorry Dave”).
Gevaarlijker dan de atoombom
Elon Musk toont met zijn bijdrage aan dat we ons wel degelijk zorgen moeten maken over ondoordacht onderzoek naar AI. Hij noemt AI potentieel gevaarlijker dan de atoombom en voegt eraan toe dat er heel realistische scenario’s te bedenken zijn waarin er iets misloopt met AI en de heropbouw van de menselijke beschaving zich niet voordoet. “Als het risico zo groot is, dan moeten we proactief zijn, en niet reactief”, aldus Musk.
Laten we dus met z’n allen hopen dat het Future of Life-instituut met de nodige fondsen de ontwikkeling van AI in de juiste richting kan duwen, zodat we in de toekomst niet collectief dienen als batterij voor onze mechanische meesters.