image_pdfimage_print
FDA

Meerdere bedrijven die zich bezighouden met de zorg ontwikkelen toepassingen die gebaseerd zijn op kunstmatige intelligentie en machine-leren. In goed Angelsaksisch Artificial Intelligence(AI) en Machine-Learning(ML). Problematisch bij AI/ML-toepassingen is dat onderliggende algoritmen niet transparant zijn, de makers die informatie als bedrijfsgeheim zien en ze zich zo onttrekken aan een degelijke controle door toezichthouders. Vanuit het veld  kwamen er al in 2019 indringende vragen om tot een goede regulering te komen bij de Amerikaanse Food and Drug Administration(FDA). Met name ging het om vragen om de risico’s te beperken. De FDA publiceerde in 2019 daar al iets over door medische AI/ML-toepassingen te willen beschouwen als “Software as Medical Device”(SAMD). Het ging daarbij om een discussiestuk waarin men toch al een visie voor de toekomst legde en men om commentaar uit het veld vroeg. In 2020 keurde men een voor het eerst een toepassing goed op basis van het veranderde gedachtengoed.     

FDA

Op 12 januari 2021 publiceerde de FDA haar op de reacties op het discussiestuk gebaseerde actieplan. Men stelde:

“This action plan outlines the FDA’s next steps towards furthering oversight for AI/ML-based SaMD,” said Bakul Patel, director of the Digital Health Center of Excellence in the Center for Devices and Radiological Health (CDRH). “The plan outlines a holistic approach based on total product lifecycle oversight to further the enormous potential that these technologies have to improve patient care while delivering safe and effective software functionality that improves the quality of care that patients receive. To stay current and address patient safety and improve access to these promising technologies, we anticipate that this action plan will continue to evolve over time.”

Men stelt dus heel duidelijk bedrijven in staat hun AI/ML-producten te maken om de zorg voor patiënten te verbeteren, mits de software veilig en effectief is.

Samenvatting inhoud(1)

De FDA geeft de volgende beoogde doelen en actiepunten aan:

  • We will develop an update to the proposed regulatory framework presented in the AI/ML-based SaMD discussion paper, including through the issuance of a Draft Guidance on the Predetermined Change Control Plan. 
  • The FDA will strengthen FDA’s encouragement of the harmonized development of Good Machine Learning Practice (GMLP) through additional FDA participation in collaborative communities and consensus standards development efforts.
  • We will support a patient-centered approach by continuing to host discussions on the role of transparency to users of AI/ML-based devices. Building upon the October 2020 Patient Engagement Advisory Committee (PEAC) Meeting focused on patient trust in AI/ML technologies, hold a public workshop on medical device labeling to support transparency to users of AI/ML-based devices.

Samenvatting inhoud(2)

En vervolgt:

  • We will support regulatory science efforts on the development of methodology for the evaluation and improvement of machine learning algorithms, including for the identification and elimination of  bias, and on the robustness and resilience of these algorithms to withstand changing clinical inputs and conditions. 
  • The FDA will advance real-world performance pilots in coordination with stakeholders and other FDA programs, to provide additional clarity on what a real-world evidence generation program could look like for AI/ML-based SaMD.

Kernpunten

De vijf kernpunten zijn dus:

– Op maat gemaakte regelgevingskader voor op AI / ML gebaseerde “Software as Medical Device”

– Het komen tot “Good Machine-Learning Practice (GMLP)”. Een concept dat vergelijkbaar is met de Good Manufacturing Practice     richtlijnen die gelden bij het vervaardigen van medicijnen.

– Een patiëntgerichte benadering met transparantie voor gebruikers. Dat om ervoor te zorgen dat gebruikers de voordelen, risico’s       en beperkingen van op AI/ML gebaseerde systemen kennen.

–  Regelgevende wetenschappelijke onderzoeksinspanningen om methoden te vinden die op AI/ML-gebaseerde medische  software      kunnen evalueren.

–  Het monitoren van wat AI/ML-software, toegepast in praktijkomstandigheden doet.

Onderkenning  

Met deze nieuwe stappen geeft de FDA expliciet aan dat ze niet vast wil houden aan de programma’s van eisen die gelden voor elektronische medische apparatuur zonder AI/ML. Daar hanteert men bepaalde gevaarklassen voor die leiden tot òf een bewijs van goedkeuring(approval) òf de mindere vorm, een toelating(clearance). Het is het bewijs dat de FDA met haar tijd mee gaat maar tegelijk ook duidelijk strikte regelgeving wil hanteren voor nieuwe ontwikkelingen.

W.J. Jongejan, 17 februari 2021

Afbeelding van Gerd Altmann via Pixabay