Sinds de opkomst van ChatGPT experimenteren steeds meer publieke organisaties met Large Language Models (LLMs) voor toegankelijke en begrijpelijke informatievoorziening. Maar de inzet roept fundamentele vragen op: hoe waarborg je privacy, betrouwbaarheid en transparantie? En hoe voorkom je afhankelijkheid van commerciële aanbieders? De kennis over verantwoorde toepassing is nog beperkt. Dit project ontwikkelt op basis van de succesvolle voorRecht-pilot van de Rechtspraak een praktisch validatiekader voor de inzet van LLMs in publieke dienstverlening. Door samenwerking tussen ontwikkelaars en onafhankelijke onderzoekers worden ontwerpkeuzes rond privacy, robuustheid, cloudafhankelijkheid en gebruikerservaring geëvalueerd. Het resultaat is een toetsbaar kader dat publieke en private partijen ondersteunt bij de verantwoorde toepassing van generatieve AI in de informatievoorziening.