Social extended reality (XR), waarbij gebruikers met elkaar communiceren in immersieve, virtuele omgevingen, worden steeds populairder. Gebruikers hebben echter ook steeds vaker te maken met intimidatie. In dit project creëren we AI-modellen die dergelijke intimidatie kunnen identificeren in non-verbaal gedrag (bijv. gebaren of inbreuk op persoonlijke ruimte). Dit geeft inzicht in hoe AI-modellen sociale interacties tussen mensen begrijpen. Verder is dit nuttig voor het modereren van online ruimtes door het automatisch detecteren van mogelijke intimidatie. Menselijke moderatoren beoordelen dit en leggen een straf op, bijvoorbeeld door intimiderende gebruikers van platforms te verwijderen. Dit helpt om online ruimtes veilig te houden.