Ruim 90 geïnteresseerden hadden zich aangemeld voor het matchmakingevent op donderdagochtend 6 maart in ZZIIN, vlakbij station Den Haag Centraal. Dit waren mensen uit het bedrijfsleven, van kennisinstellingen en van overheidsinstanties. Er werden diverse innovatieve ideeën gepitcht. “Gezien het enorme animo vandaag hebben we duidelijk een gevoelige snaar weten te raken met deze call”, zei Valerie Frissen, directeur van SIDN fonds. Zij sprak de hoop uit dat de verschillende ‘bloedgroepen’ elkaar tijdens het evenement weten te vinden en gezamenlijk mooie voorstellen in zullen dienen.
Eerste samenwerking
Frits Grotenhuis, directeur van Topsector ICT, benadrukte op de bijeenkomst dat de technologische ontwikkelingen razendsnel gaan, net als de geopolitieke verschuivingen. “Om Vladimir Lenin te quoten: Some decades nothing happens, sometimes decades happen in one week.” Hij is blij met de eerste samenwerking met SIDN fonds om digitale innovatie verder te brengen op het gebied van responsible AI. “Het is goed om de krachten te bundelen.”
De call is een initiatief dat voortkomt uit de samenwerking tussen de Topsector ICT en het SIDN fonds. Deze samenwerking is ingegeven door de Kennis- en Innovatieagenda (KIA) Digitalisering, die onder regie van de Topsector ICT wordt uitgevoerd. De KIA Digitalisering is opgebouwd uit drie pijlers: innoveren IN ICT, innoveren MET ICT en reflecteren OP ICT. De call ‘Responsible AI in de praktijk’ sluit aan bij de derde pijler, reflecteren OP ICT.
SIDN fonds heeft als doel om internetinnovatie met maatschappelijke impact te stimuleren, waarbij de focus ligt op projecten die bijdragen aan een veilig, betrouwbaar en toegankelijk internet. De call ‘Responsible AI in de praktijk’ sluit hierbij aan door in te zetten op verantwoorde toepassingen van AI, waarbij ethische, juridische en maatschappelijke aspecten centraal staan. Dit draagt bij aan een transparante en democratische inzet van technologie, wat aansluit bij de missie van SIDN fonds.
13 pitches
In totaal kregen 13 partijen de kans om hun innovatieve ideeën te pitchen op het event. Zij kregen elk 3 minuten de tijd om meer te vertellen over hun project of oplossing en konden aangeven naar welke partijen en input ze nog op zoek zijn om de call in te kunnen dienen. Mieke van Heesewijk, adjunct-directeur van SIDN fonds, introduceerde de pitchers en bewaakte de tijd.
De volgende personen hebben hun project gepitcht:
- Sebastiaan Posth - CEO en oprichter van Liccium
Tijdens de eerste pitch ging het over transparantie in digitale media. Generatieve AI verandert de manier waarop content wordt gecreëerd en online gedeeld volledig. Zonder transparantie is het bijna onmogelijk om te bepalen of content door AI is gegenereerd of authentiek is. Om dit probleem aan te pakken, zijn regelgeving, zoals de Europese AI Act, en standaarden, zoals de International Standard Content Code (ISCC), nodig. Maar dit is niet voldoende: transparantie moet een normaal onderdeel worden van standaard publicatiepraktijken. En daar komt de software van Liccium om de hoek kijken. Hiermee kun je originele werken certificeren en metadata en informatie aan de content koppelen. Samen met de Universiteit Leiden wil Liccium het Publishing AI Attribution Framework (PAAF) ontwikkelen. Dit framework kan worden gebruikt als een plug-in voor publicatiesoftware om inzichtelijk te maken in welke mate AI is gebruikt bij het creëren van content. Tegelijkertijd helpt het platforms en gebruikers om deze informatie te verifiëren en de authenticiteit van content te begrijpen. - Felix van Litsenburg – Promtbox
Met name bij overheidsinstanties zijn er vragen over de veiligheid en de juiste toepassing van AI. Hoe wordt er omgegaan met de data die je erin stopt? Wordt de privacy gewaarborgd? Hoe kan je als overheidsinstelling of als gemeente op een verantwoordelijke manier gebruikmaken van kunstmatige intelligentie? Promptbox is een product in ontwikkeling om AI beschikbaar te maken in een gebruikersvriendelijke en veilige omgeving. Het is een suite van AI-oplossingen die allemaal on-prem draaien. Dat wil zeggen: volledig binnen het netwerk van een bedrijf of overheidsinstelling, zodat er geen enkel risico bestaat dat de data gebruikt kunnen worden voor de verkeerde doeleinden of ingezien kunnen worden door een ander. - Daan Witte – Gradient Data Science
Vijf maanden geleden is Gradient Data Science samen met de Universiteit van Wageningen gestart om open source language-modellen in te zetten voor de universiteitsbibliotheek. Bij een project van het ministerie van LVVN, genaamd AI voor regionale expertise (AIRE), is een chatbot ontwikkeld die ambtenaren helpt bij het oplossen van natuur- en landbouwkwesties. AIRE doet dit op basis van een grote kennisbank die beheerd wordt door de Universiteit van Wageningen: Groen Kennisnet. De eerste versie van AIRE, volledig gebaseerd op open source LLM's, is inmiddels af. Gradient Data Science onderzoekt nu of de universiteit de technologie ook kan inzetten voor de eigen bibliotheek. Het kijkt naar twee oplossingsrichtingen:
* een algemene chatbot met bronvermelding voor alle gebruikers van de Groen Kennisnet-bibliotheek (docenten, studenten en agrariërs).
* een specifieke tool om betrouwbaar lesmateriaal te genereren voor docenten op het juiste didactisch niveau.
Vragen die ze beantwoord willen zien is: hoe ontwerp je oplossingen die geen onbewuste bias creëren voor academici? Kan je dit testen? Hoe ga je om met interpretatieverschillen? Hoe zorg je voor de juiste balans tussen modelkwaliteit en energie? En hoe zorg je ervoor dat docenten ook verantwoordelijk met de oplossing aan de gang gaan, zodat het onderwijs daadwerkelijk beter wordt? - Stijn Sprenkels - Wonderbit
AI zonder kwaliteitscontrole is als een kompas zonder noorden. Dat is waar Wonderbit verandering in wil brengen. AI wordt alleen echt intelligent als alle perspectieven zijn meegenomen. Technologie kan de juiste mensen in de juiste rollen zetten, zodat AI robuust, betrouwbaar en eerlijk wordt. “We betrekken verschillende personen bij het labelen van data. Allereerst de Data Privacy Officer, die bewaakt dat alle data veilig en conform regelgeving wordt verwerkt zodat verantwoord gebruik gegarandeerd is. Ten tweede de Game Manager, die ervoor zorgt dat het juiste spel bij de juiste doelgroep terecht komt en dat alles optimaal wordt ingericht voor maximale resultaten. Ten derde de Speler die via identification bijdraagt aan het labelen van data en zorgt voor een boeiende en motiverende ervaring”, licht Sprenkels toe. Wonderbit zet doelgroepdenken in tegen bias, zodat AI-systemen niet alleen nauwkeurig zijn, maar ook rechtvaardig. Dit doet het onder meer met Class Effect, een platform dat belanghebbende betrekt bij het controleren en het verrijken van data. Het bedrijf heeft onder meer opdrachten gedaan voor verschillende gemeenten, provincies en de Rijksoverheid en is altijd op zoek naar mogelijkheden om samen te innoveren. - Iskander Smit – Cities of Things
Cities of Things is een onderzoeks-kennisplatform dat zo'n zeven jaar geleden is gestart in Delft dat zich richt op de slimme stad en in het bijzonder op samenleven met autonome objecten. Drie jaar geleden is het een stichting geworden, met de focus op: hoe gaan we dat samen met burgers ontwerpen? Denk aan rondrijdende karretjes en schoonmaakrobots. Er is anderhalf jaar lang een project gedaan met een groep bewoners uit de Afrikaanderwijk in Rotterdam. Daarnaast zijn er veel projecten gedaan met studenten en zijn er diverse workshops gegeven. “Er is een prototype platform, maar de software en hoe we dat verder gaan vormgeven is wat minder ontwikkeld. We willen meer onderzoek doen naar Agentic AI en hoe we daar goede dingen voor kunnen bedenken, ontwerpen en testen. We werken hierbij samen met de Hogeschool Rotterdam. Welke programma’s we daarvoor gaan maken moet nog worden uitgedacht”, vertelt Smit. - Joel Galvez – Public Data for Public Events
Dit non-profit-project van Galvez is een poging om een manier te vinden om op de hoogte te blijven van kunstenaarsinitiatieven in en rond Amsterdam zonder sociale media. Hij wil hiertoe een publicatiemodel ontwikkelen - Funnel Emails into Fediverse Events (FEFE). Met behulp van AI kan hij e-mailnieuwsbrieven door een lokaal gehost taalmodel laten verwerken om een goed overzicht te krijgen. Hierbij worden data verzameld, gedeeld en geconsumeerd. Vooral het verzamelen is lastig voor kleine initiatieven. Het doel is een goedkope, eenvoudige en gedecentraliseerde oplossing. Voor de distributie brengt hij de data naar Mobilizon, waarna het ontwerp kan worden verbeterd. “AI is niet perfect en kan energieverspilling opleveren, maar dient hier als tijdelijke katalysator. Zodra er een functionerend ecosysteem voor openbare evenementendata is, is AI niet meer nodig. De grootste uitdaging is het doorbreken van het netwerk-effect”, aldus Galvez. - Helma Torkamaan – TU Delft
Torkomaan is assistent professor AI en gezondheidssystemen bij de TU Delft. Volgens haar moeten systemen minder technologie-georiënteerd en meer human-centric gebouwd gaan worden met oog voor toekomstige toepassingen. “De technologische ontwikkelingen gaan razendsnel en de situatie in de wereld verandert ook continue. Hoe kunnen we ervoor zorgen dat we systemen kunnen bouwen die over vijf jaar nog altijd van betekenis zijn en op het langere termijn een positieve impact hebben op de samenleving?” Als het aan Torkomaan ligt wordt het de hoogste tijd voor een human-centric AI-Framework, dat zich baseert op menselijke waarden. Ze gebruikt dat framework in een workshop met 13 faculteiten van TU Delft. Het framework kan worden toegepast in diverse sectoren, waaronder de zorg en academische research-cases. Zij hoopt tijdens het matchmaking-event nieuwe toepassingen te verkennen met de deelnemers. - Tim de Winkel – Hogeschool Utrecht
Deze pitch gaat over een oplossing voor communicatieprofessionals bij online escalaties: de BEP. BEP staat voor Birds Eye Perspective, een algoritmisch gestuurde leeromgeving die ontwikkeld is met onder meer de Nationale Politie. Het taalmodel is theoretisch en empirisch getest. Het is ook een analytische tool die taaleffecten die kunnen leiden tot escalatie vroegtijdig kan signaleren en de communicatieprofessional daarover informeert. De Winkel wil het project graag uitbreiden. Hij wil van responsible naar explainable AI. “Er zit heel veel precisie, nuance, context en soms ook onzekerheid in het werken met deze algoritmes. Onze onderzoekers snappen dat, maar zij zijn niet de gebruikers. Wij willen onze leeromgeving niet alleen transparant maken voor gebruikers, maar ook lessen stoppen in de interface en technologie. Hoe werk je samen met een algoritmische tool? Waar kunnen algoritmes fout zitten? Wat gebeurt er dan? We willen dit op een gebruiksvriendelijke manier integreren in onze leeromgeving. En daarvoor zoeken we partners en hebben we middelen nodig.” - Peter van der Putten – Universiteit Leiden Living Lab
Deze pitch gaat over het project ‘Maak het eerlijk’. Van der Putten is op zoek naar bedrijven die AI inzetten om beter om te gaan met hun klanten. Er loopt een langdurig onderzoekproject van een aantal jaar, waarbij gekeken wordt naar eerlijkheid – niet alleen in de nauwe definitie van bias en fairness, maar ook: wordt een AI-systeem op een eerlijke manier ingezet? Hierbij wordt rekening gehouden met de belangen van alle stakeholders. “Er is veel literatuur over AI en eerlijkheid aan de data science-, ethische- en juridische kant. Aan de andere kant zijn er ook trainingen zoals de Nationale AI-cursus, waar je heel high level leert waarom eerlijkheid in AI belangrijk is. Maar er is een gapend gat in het midden. Als ik bij een bedrijf werk en ik een systeem moeten implementeren om een bepaald product te verkopen, hoe zorg ik dan dat eerlijkheid daar ook wordt meegenomen?” Hij is op zoek naar bedrijven die mee willen doen in dit project. Hij wil interviews doen om uit te zoeken wat voor bedrijven en organisaties de belangrijkste uitdagingen zijn, om hier beter op in te kunnen spelen en ook specifieke tools voor te ontwikkelen. Dit kan een online training, maar ook een serious game zijn. - Joerie Nijhuis – IT’s UP TO YOU
It’s up to you ontwikkelt levensechte, simulatiegebaseerde leerprogramma’s, waaronder softskills-trainingen en programma’s voor gedragsverandering. In interactieve simulaties worden deelnemers geconfronteerd met fictionele situaties in een veilige omgeving. “De programma's die wij ontwikkelen worden samen ontwikkeld met onderzoekers en de onderliggende leermethode is wetenschappelijk gevalideerd”, licht Nijhuis toe. Juist op het gebied van verantwoord AI-gebruik is heel veel winst te behalen. In organisaties speelt dit op alle lagen en komen complexe morele en juridische vraagstukken naar boven. Hoe ga je bijvoorbeeld om met AI die op basis van een risicoprofiel een bepaalde uitkering afwijst, terwijl jij als persoon meer nuance ziet? Wat is de impact van wet- en regelgeving op het dagelijkse werk?
It’s up to you wil een pragmatische oplossing bieden voor sectoren en organisaties die juist met dit soort uitdagingen spelen, door middel van een simulatie gebaseerd leerprogramma ‘Verantwoord AI-gebruik’. Geen droge theorie of lesstof, maar experimenteren in een veilige omgeving. “Wij gaan mensen confronteren met realistische situaties waarin AI en ethiek, wetgeving en maatschappelijke dilemma's met elkaar botsen. Vervolgens, in een groepsreflectie, kunnen deelnemers de keuzes met elkaar bespreken en met elkaar afspraken maken omtrent initiatieven en duurzame gedragingen voor het gebruik van AI”, aldus Nijhuis. Hij wil zich met dit programma richten op sectoren en organisaties waar AI en ethische dilemma's veel voorkomen, zoals de financiële sector, de overheid, maar ook de zorg. Hij is op zoek naar een kennisinstelling om samen een voorstel voor deze call in te dienen. - Hans de Raad – OpenNovations
OpenNovations is een mkb’er op het gebied van data-analyse en -processing en AI. Het richt zich met name op de infrastructuur onder AI-toepassingen, een reference stack op basis van open source componenten. OpenNovations werkt al jarenlang nauw samen met overheidsinstanties en private ondernemingen, variërend van mkb’ers tot internetstartups. Het bedrijf geeft 10 procent van de jaarlijkse omzet terug aan de open source-projecten waarmee ze werken. Digitale innovatie moet een bedrijfsproces volgens De Raad ondersteunen en niet afdwingen dat bedrijven geherstructureerd moeten worden. “We willen de stack zo eenvoudig en gebruiksvriendelijk mogelijk maken. Wij schatten in dat we ongeveer 6 tot 9 maanden bezig zullen zijn met dit project en zijn nog op zoek naar partners.” - Aletta Smits – Hanze Hogeschool
Smits is lector Human Center Technology bij de Hanze Hogeschool en doet onderzoek naar Human AI Interaction, en hoe je met Human AI Interaction Responsible AI dichterbij kunt brengen. “De bekendste vorm van Human AI Interaction is explainable AI. Dan communiceert het algoritme met de gebruiker om uit te leggen: hoe ben ik eigenlijk bij deze uitkomsten uitgekomen? Zelf zit ik meer op het niveau van algorithmic affordances: hoe praat de gebruiker met het algoritme? Door op een bepaalde manier te communiceren met het algoritme voel je meer controle over de uitkomsten en voel je meer eigenaarschap, waardoor je je verantwoordelijker voelt voor wat er uiteindelijk met die uitkomsten gedaan wordt”, aldus Smits.
Een voorbeeld van zo'n algorithmic affordance is de boek-recommender van Amazon. Je kunt als gebruiker reageren op de boeksuggesties die worden gedaan, waardoor je meer controle hebt over het algoritme en meer transparantie en autonomie voelt. Het interactieniveau is volgens Smits hard nodig om bij Responsible AI uit te komen. “Het ingewikkelde is dat developers vaak zelf niet goed weten hoe ze responsible AI moeten maken. We ontwikkelen moment samen met de Hogeschool Utrecht een library met een inventarisatie van de interactie van mensen met het algoritme. Voor déze call wil ik graag de volgende stap ook al in werking zetten, namelijk een algoritmische monitor waarmee we systemen kunnen auditen op hoe de interacties in elkaar zitten. Want voor een boekenaanrader valt het wel mee, maar voor een systeem dat een arts helpt te beslissen of iemand van de IC af kan, is het belangrijker dat de interacties goed in elkaar zitten.” - Almen Taimur Tilburg University – TILT
TILT is een toonaangevende onderzoeksgroepen in Europa op het snijvlak van recht, technologie en maatschappij. Het is gebaseerd op de multidisciplinaire studie van sociaal-technische veranderingen, gericht op het begrijpen van de interactie tussen technologie en sociale en normatieve praktijken, om te verduidelijken hoe de regelgevingsuitdagingen van sociaal-technische veranderingen kunnen worden aangepakt. AI wordt veelal positief ingezet, maar tegelijkertijd vergiftigt AI ook onze informatie-ecosystemen actief. Denk maar aan nieuwe vormen van cyberaanvallen met behulp van manipulatieve data, fake news, inmenging in de politiek met deepfake-video’s, et cetera. TILT wil een praktisch framework ontwikkelen om kwaadwillende settingen in AI-systemen te detecteren en terug te dringen. Daarnaast wil TILT de design-principes bepalen voor responsabele AI-ontwikkeling. “We proberen de kloof te dichten tussen AI-beleid, regelgevingskaders voor AI en responsible AI in de praktijk. We willen werken aan real-time oplossingen, samen met het bedrijfsleven. Hierbij ligt de focus op integriteitsprincipes, transparantie, en het kweken van vertrouwen tussen mensen en AI”, aldus Taimur. Compliance is overduidelijk nog een grijs gebied. Er is al interesse getoond in dit project door Europol, de Autoriteit Persoonsgegevens en er zijn vergaande gesprekken met Deloitte om voor dit project gezamenlijk op te trekken. Daarnaast is TILT altijd op zoek naar nieuwe partners.
Thema komt tot leven
Na de 13 pitches was er ruim de gelegenheid om te netwerken en kennis en ervaringen uit te wisselen, tijdens matchmaking-sessies aan diverse statafels en tijdens de lunch. Ook partijen die niet hadden gepitcht gaven aan dat de bijeenkomst zeer waardevol en inspirerend voor ze is geweest. Sjoerd Meihuizen, programmamanager van de KIA Digitalisering gaf aan in de toekomst vaker matchmaking-sessies voor subsidiecalls te willen organiseren. “Je merkt dat het thema tijdens zo’n sessie veel meer gaat leven en dat partijen die mogelijk wat voor elkaar kunnen betekenen elkaar opzoeken.
Elise van Schaik, projectcoördinator van SIDN fonds, is eveneens enthousiast. “Wij hebben al vaker dit soort events georganiseerd en je merkt dat er chemie ontstaat tussen partijen. Vaak weten organisaties niet van elkaar met welke interessante innovatieve projecten zij bezig zijn. Dit is een uitstekende gelegenheid om dit kenbaar te maken en nieuwe contacten te leggen. Er ontstaan altijd nieuwe plannen en ideeën, als het niet voor deze call is, dan is het wel voor een volgende.”
Er kunnen nog voorstellen voor de call worden ingediend tot 31 maart 2025.