Als werkpaard van moderne AI, hebben modellen op basis van attentie ongekende prestaties, veelzijdigheid en schaalbaarheid ontgrendeld. Hun snelgroeiende modelgrootte vereist echter een onhoudbare schaalvergroting van reken- en geheugenvereisten, in schril contrast met de toenemende vraag naar gedecentraliseerde, adaptieve en kleinschalige AI. Dit project zal deze open uitdaging aangaan door een belangrijke eigenschap van transformers te gebruiken: in-context leren, dat aanpassingen aan nieuwe taken met beperkte data mogelijk maakt, zonder hertraining. Dit project, dat innoveert op de intersectie van algoritmes en hardware, zal moderne AI naar persoonlijke apparaten brengen zonder gegevens naar de cloud te lekken, waardoor privacy wordt gewaarborgd.