Afgelopen oktober bezocht collega Marit het event Join the AI Revolution: A Young Professional’s guide. Een inspirerend event voor young professionals over de kansen van AI voor de verzekeringssector. De verschillende sprekers vertelden hoe verzekeraars AI kunnen inzetten om hun processen te optimaliseren en klanten op een kostenefficiënte manier te bedienen. Het event werd georganiseerd door Nationale Nederlanden, waar Marit nu bijna twee jaar werkzaam is als agile software tester. In deze blogpost vertelt ze over de belangrijkste key take aways van het event. Bovendien deelt ze haar visie op AI en testen.
De populariteit van AI sinds de komst van ChatGPT
Onder andere vanwege mijn studieachtergrond in AI ben ik zeer geïnteresseerd in de toepassing van AI. En sta ik altijd open om te ontdekken hoe AI kan bijdragen aan het opleveren van kwalitatief goede software. Deze interesse is alleen maar sterker geworden sinds de lancering van ChatGPT. Sindsdien hoor ik namelijk niets anders dan gesprekken om mij heen over de voor – en nadelen van de inzet van AI. Ook binnen mijn afdeling wordt er veel gesproken over de slimmigheidjes van de toepassing van ChatGPT. Zo is ChatGPT uitstekend in staat mij te helpen met het brainstormen over testgevallen, het maken van een gestructureerde planning of agenda op basis van wat punten die ik toestuur en het interpreteren en visualiseren van resultaten. Naast de vele voordelen die de inzet van AI – zoals ChatGPT – met zich meebrengt, moeten we uiteraard ook nadenken over de eventuele risico’s.
Take aways
Onderstaand de belangrijkste take aways die ik heb opgedaan tijdens het event en waar jij mogelijk ook iets aan hebt:
- Het belang van ethiek binnen AI
Artificial intelligence is een relatief nieuwe technologie, waardoor het nog niet altijd duidelijk is welke risico’s er zijn. Voor de risico’s die we als maatschappij wel al zijn tegengekomen, zijn vervolgens nog niet altijd wetten, regels of richtlijnen opgesteld. Daarom is het belangrijk om bij het inzetten van AI je bewust te zijn van de (ethische) risico’s en hoe je daarmee omgaat. Tijdens het event werd gesproken over de invloed van de ontwikkelaar van de AI-modellen op het ethisch juist neerzetten van de software. En de ondersteuning daarbij van bedrijven door middel van beleid, richtlijnen en trainingen. Zo wordt er binnen Nationale Nederlanden – waar ik werkzaam ben als testconsultant –gewerkt met een verplicht AI ethisch framework en een AI-assessment voor een veilige AI-implementatie. Bovendien werd op het event aangestipt dat AI-modellen alleen ethisch juist neergezet kunnen worden als er vanuit meerdere perspectieven naar de data gekeken wordt.
- Gebruik diverse én de juiste data
Zoals hierboven genoemd is het van belang om vanuit meerdere perspectieven naar de AI-data te kijken. Bijvoorbeeld door het betrekken van de eindgebruiker of experts die kennis en ervaring hebben over het toepassingsgebied waar de AI wordt ingezet. Dit werd tijdens het event belicht door middel van een voorbeeld over het verstevigen van gevechtsvliegtuigen. Om gevechtsvliegtuigen te verstevigen werd in eerste instantie de schade in kaart gebracht van de vliegtuigen die terugkeerde van hun missie. Echter zou juist de schade van de vliegtuigen die verloren zijn gegaan tijdens de missie in kaart gebracht moeten worden. Op basis van deze informatie werd de conclusie getrokken dat er juist versteviging moet worden aangebracht op de plekken waar geen schade is bij de teruggekeerde vliegtuigen aangezien de kans daarmee vergroot wordt dat gevechtsvliegtuigen terug kunnen keren na hun missie.
- Voorkom hallucinatie door regelmatig de interpretaties van het AI-model te controleren
Niet alleen het vooraf juist interpreteren van de data door een goede samenwerking tussen ontwikkelaars, eindgebruikers en experts is belangrijk. Juist ook tussentijdse controle op de interpretaties van het AI-model zelf is van belang. Dit heeft te maken met het fenomeen hallucinatie. Hallucinatie is een van de grootste zorgen bij zelflerende modellen en treedt op wanneer het model verkeerde interpretaties maakt en daardoor incorrecte resultaten genereert. Een voorbeeld hiervan is een chatbot die de vraag van zijn gesprekspartner niet begrijpt, maar vervolgens wel een antwoord geeft op basis van deze interpretatie waardoor het antwoord verkeerd is. Als de chatbot niet gecorrigeerd wordt, dan zal de chatbot telkens als deze vraag terugkomt een verkeerd antwoord geven. Sterker nog, de kans bestaat ook dat de chatbot de informatie gebruikt voor de interpretatie van andere vragen. Dit laat zien dat de context die wordt meegegeven aan het AI-model belangrijk is. Als de data die gebruikt wordt feitelijk niet juist is, dan kan het AI-model ook geen correcte resultaten teruggeven en gaat de betrouwbaarheid van het AI-model omlaag.