ITS raadt aan kunstmatige intelligentie goed te overwegen. Het staat bij veel bedrijven in de belangstelling, dus ITS zet voor u de belangrijke punten op een rij uit het interview met een hoogleraar Safe and Responsible AI over de kansen en gevaren.
Deze hoogleraar, Natasha Alechina, is sinds 2019 hoogleraar Safe and Responsible AI bij de Faculteit Bètawetenschappen van de Universiteit Utrecht.
‘Ik denk niet dat de ontwikkelingen van AI te snel gaan, maar dat AI te snel wordt toegepast’, zegt de hoogleraar. ‘Men verwacht sommige dingen zonder mensen te kunnen doen maar dat is niet waar.’ Kunstmatige intelligentie (AI) betreft alles wat computers zelf ‘beslissen’. Dit houdt in dat een systeem zelfstandig data analyseert en aan de hand daarvan conclusies trekt. De werking hiervan is net zo goed of zo slecht als de algoritmes en wiskundige modellen waarmee het systeem is geprogrammeerd, aangezien AI werkt op basis van de data die je het systeem voert. In eerste instantie zijn AI-modellen dus gecreëerd door programmeurs. Die modellen hebben geen bewustzijn en kennen geen ethiek, dus mensen moeten zorgvuldig in de gaten houden of AI zich gedraagt zoals de bedoeling is.
AI kan tegenwoordig beelden, teksten en muziek maken. Sinds 2022 kan iedereen ChatGPTgebruiken. Dergelijke taalrobots worden alsmaar meer gebruikt, dus het is belangrijk goed te weten hoe je die kunt inzetten. In de toekomst kan AI met gemak saaie, repetitieve taken van de mens overnemen. Ook bestaan er nu systemen die beelden kunnen herkennen. In de geneeskunde kan dit helpen om bijvoorbeeld radiologische beelden te beoordelen voor afwijkingen, maar hier moeten mensen een kritisch oogje in het zeil houden. Een arts weet namelijk welke afwijkingen bij een patiënt normaal zijn en ook dat er verschillen zijn tussen het lichaam van een volwassene en dat van een kind.
Op dit moment is een gevaar van AI dat mensen het toepassen in situaties waarvoor een systeem niet genoeg is ontwikkeld. Denk aan het aanhouden van mensen voor misdaad via camerabeelden, want als AI een verkeerde conclusie trekt vanuit data, kan dit leiden tot discriminatie. Voor de regering, de gemeente, of wanneer mensenlevens op het spel staan, is AI nog niet slim genoeg, want als de data die AI analyseert subjectief is, dan is het AI-systeem dus ook subjectief. Het is daarom belangrijk dat goede wetten en regels tot stand komen. ChatGPT kan heel handig zijn, maar veroorzaakt ook problemen, omdat dit systeem is gebaseerd op teksten die online staan, zonder dat er onderscheid is naar bijvoorbeeld de bron of het soort teksten. Naast dat dit AI-systeem niet goed feiten kan onderscheiden van klinkklare onzin, schendt het ook auteursrechten.
Zelfstandige kunstmatige intelligentie zal in de nabije toekomst een samenwerking vormen met mensen. ‘Mensen moeten niet denken dat AI perfect is en alles alleen kan. We zullen juist moeten samenwerken met AI!’, aldus de hoogleraar. Het blijft zich ontwikkelen, maar het is van belang dat mensen en bedrijven begrijpen hoe een specifiek systeem werkt voordat ze het zomaar ergens op toepassen.
Kijk hier voor het volledige interview
(Bron: Beleef KPN, Kansen en gevaren van artificiële intelligentie)