Uit het onderzoek, het project Trusted AI, zijn drie Python-gebaseerde toolkits gerold en deze zijn beschikbaar voor iedereen om mee te experimenteren. De nieuwste daarvan die eerder deze maand uitkomt is een toolkit die algoritmes bevat om de beslissingen die werden genomen met behulp van het machine learning-model uit te leggen.

De drie Python-toolkits van IBM's Trusted AI zijn beschikbaar op GitHub. Het gaat om de volgende drie toolkits:

1. Verklaarbaarheid: AIX360

AI Explainability 360, oftewel AIX360, levert algoritmes voor de verschillende dimensies waarmee machine learning-modellen uitgelegd kunnen worden en statistieken daarvoor. De tookit helpt gebruikers te begrijpen hoe labels worden voorspeld gedurende de verschillende fases van de levenscyclus van de AI-applicatie.

Het onderzoek in een lab heeft verschillende praktijkscenario's opgeleverd, zodat de tool kan worden toegepast voor domeinen als P&O, financi├źn, onderwijs en gezondheidszorg. De AIX300-tookit werd op 8 augustus live gezet en kun je via deze link downloaden. De API-documentatie vind je hier.

2. Eerlijkheid: AIF360

AI Fairness 360, oftewel AIF360, levert methodes om onzuiverheden en vertekeningen in datasets en modellen op te merken en algoritmes onder controle te houden om deze vertekening te beperken. Met deze toolkit hoopt IBM om de ontwikkeling van modellen te voorkomen die de voorkeur geven aan bepaalde groepen om ze zo een systematisch voordeel te leveren.

Onzuiverheid in trainingsdata - vanwege vooroordelen in labels, of over- of undersampling - leidt tot modellen die bevooroordeelde beslissingen nemen. Deze toolkit werd in september vorig jaar uitgebracht en bevat negen algoritmes die met een standaardmethode aangesproken kunnen worden. AIF360 bevat tutorials over het voorspellen van medische uitgaves, classificeren van afbeeldingen van gezichten op basis van geslacht en kredietscores. De code vind je via deze link en de documentatie staat hier.

3. Beveiliging: ART360

Adversarial Robustness Toolbox, omgedoopt tot ART360, is een Python-library om ontwikkelaars te steunen in het beschermen van Deep Neural Networks (DNN's) tegen aanvallen om zo AI-systemen beter beveiligd en betrouwbaarder te maken. DNN's zijn vatbaar voor adverserial examples waarbij inputs (bijvoorbeeld afbeeldingen) om het door de aanvaller gewenste resultaat te krijgen. De tools kunnen worden gebruikt om beveiligingstechnieken te bouwen en praktische beveiliging uit te rollen.

De aanpak voor het beveiligen van DNN's draait om het meten van de robuustheid van het model, met aanpakken als het voorverwerken van DNN-inputs om trainingsdata te verrijken met adverserial samples en door runtimedetectiemethodes in te zetten om inputs op te merken waar wellicht mee is gesjoemeld door een aanvaller. Deze toolkit werd in april 2018 uitgebracht en je vindt hem via deze link.

Toekomst

IBM denkt vooruit en kijkt naar de mogelijke release van een tool waarmee AI-modellen verantwoording kunnen afleggen. Het is dan de bedoeling dat je gedurende de hele levenscyclus van een model databeheer en een dataspoor hebt, zodat je kunt zien wat er wanneer is gebeurd om de betrouwbaarheid van het model in te schatten.