Google DeepMind helpt diabetes blindheid tijdig vast te stellen
Googles artificiële intelligentie (AI)-afdeling gaat samenwerken met een oogziekenhuis in Engeland, dat weet The Guardian. De zelflerende DeepMind algoritmes gaan gedetailleerde oogscans bestuderen. Het is de bedoeling dat de algoritmes op termijn zelf in staat zullen zijn om correcte diagnoses te stellen. Beter dan een arts dat kan.
Diabetes blindheid
Pearse Keane is een oogarts in het Londense Moorfields Eye Hospital. Hij las over Google DeepMinds excellente beeldherkenningskwaliteiten in een artikel over DeepMind dat klassieke Atari-spellen speelt. Meteen ging er bij de man een belletje rinkelen. Keane stelde zich voor hoe DeepMind patiënten zou kunnen helpen met het stellen van bepaalde diagnoses van oogziekten.
“Er staat zoveel op het spel. Vooral wat betreft diabetes retinopathie. Als je diabetes hebt, is de kans 25 maal groter dat je op termijn blind zal worden, zo legt Mustafa Suleyman van DeepMind uit. “Als we de achteruitgang van de ogen zo snel mogelijk detecteren, dan kunnen we 98% van dat verlies in zicht voorkomen”, aldus Suleyman.
Sneller en accurater
DeepMind moet er dus voor zorgen dat diagnoses sneller en accurater worden gesteld. Op die manier zou het op termijn het zicht van duizenden diabetici kunnen redden. De samenwerking tussen het Londense ziekenhuis en DeepMind is voorlopig wel enkel nog bedoeld voor medische onderzoeksdoeleinden, en dus niet om al zelf patiënten verder te helpen.
DeepMind trekt niet zonder wapens naar het strijdveld. Moorfields Eye Hospital verleent de AI-algoritmes toegang tot de anonieme gegevens van al eerder uitgevoerde scans. Op die manier kan DeepMind die eerdere scans alvast bestuderen om zo zelf zijn diagnoses te verbeteren. Die methode is erg gelijkaardig aan de manier waarop Samsung zijn zelflerend scanapparaat al test voor de diagnose van borsttumoren.
Ervaring van 10.000 levens
Professor Peng Tee Khaw is het hoofd van het Londense ziekenhuis. Volgens hem zit de kracht van de samenwerking hem in de extreem hoge detail van oogscans: “Deze scans zijn ongelooflijk gedetailleerd. Veel meer dan dat het geval is bij andere scans die we nemen op het lichaam. Oogscans worden genomen op cellulaire niveau. Het enige probleem voor ons is het omgaan met dergelijke grote hoeveelheid aan data.”
Dat is precies de reden waarom de professor zo tevreden is met de samenwerking met Googles AI-afdeling: “Het kost mij mijn hele leven lang om een patiënts leven op te volgen, en toch moeten patiënten op mijn expertise rekenen om hun toekomst te voorspellen. Als we onze machines kunnen laten assisteren door deep learning, kunnen we onze diagnoses veel beter stellen. We hebben dan namelijk de ervaring van 10.000 levens tezamen.”, aldus professor Peng Tee Khaw.
Googles artificiële intelligentie (AI)-afdeling gaat samenwerken met een oogziekenhuis in Engeland, dat weet The Guardian. De zelflerende DeepMind algoritmes gaan gedetailleerde oogscans bestuderen. Het is de bedoeling dat de algoritmes op termijn zelf in staat zullen zijn om correcte diagnoses te stellen. Beter dan een arts dat kan.
Diabetes blindheid
Pearse Keane is een oogarts in het Londense Moorfields Eye Hospital. Hij las over Google DeepMinds excellente beeldherkenningskwaliteiten in een artikel over DeepMind dat klassieke Atari-spellen speelt. Meteen ging er bij de man een belletje rinkelen. Keane stelde zich voor hoe DeepMind patiënten zou kunnen helpen met het stellen van bepaalde diagnoses van oogziekten.
“Er staat zoveel op het spel. Vooral wat betreft diabetes retinopathie. Als je diabetes hebt, is de kans 25 maal groter dat je op termijn blind zal worden, zo legt Mustafa Suleyman van DeepMind uit. “Als we de achteruitgang van de ogen zo snel mogelijk detecteren, dan kunnen we 98% van dat verlies in zicht voorkomen”, aldus Suleyman.
Sneller en accurater
DeepMind moet er dus voor zorgen dat diagnoses sneller en accurater worden gesteld. Op die manier zou het op termijn het zicht van duizenden diabetici kunnen redden. De samenwerking tussen het Londense ziekenhuis en DeepMind is voorlopig wel enkel nog bedoeld voor medische onderzoeksdoeleinden, en dus niet om al zelf patiënten verder te helpen.
DeepMind trekt niet zonder wapens naar het strijdveld. Moorfields Eye Hospital verleent de AI-algoritmes toegang tot de anonieme gegevens van al eerder uitgevoerde scans. Op die manier kan DeepMind die eerdere scans alvast bestuderen om zo zelf zijn diagnoses te verbeteren. Die methode is erg gelijkaardig aan de manier waarop Samsung zijn zelflerend scanapparaat al test voor de diagnose van borsttumoren.
Ervaring van 10.000 levens
Professor Peng Tee Khaw is het hoofd van het Londense ziekenhuis. Volgens hem zit de kracht van de samenwerking hem in de extreem hoge detail van oogscans: “Deze scans zijn ongelooflijk gedetailleerd. Veel meer dan dat het geval is bij andere scans die we nemen op het lichaam. Oogscans worden genomen op cellulaire niveau. Het enige probleem voor ons is het omgaan met dergelijke grote hoeveelheid aan data.”
Dat is precies de reden waarom de professor zo tevreden is met de samenwerking met Googles AI-afdeling: “Het kost mij mijn hele leven lang om een patiënts leven op te volgen, en toch moeten patiënten op mijn expertise rekenen om hun toekomst te voorspellen. Als we onze machines kunnen laten assisteren door deep learning, kunnen we onze diagnoses veel beter stellen. We hebben dan namelijk de ervaring van 10.000 levens tezamen.”, aldus professor Peng Tee Khaw.