Direct naar inhoud

Een eigen ChatGPT voor medewerkers: universiteit lanceert Desidera

Gepubliceerd op:

Universiteitsmedewerkers kunnen sinds vorige week gebruikmaken van AI-chatbot Desidera. Op termijn moet Desidera uitgroeien tot de vaste AI-tool van de universiteit.

Afbeelding door: Ami Rinn

Stel: je bereidt een werkgroep voor en je twijfelt over de uitleg van een onderwerp. Je wil het vragen aan ChatGPT, maar doet dat niet omdat je niet weet wat er dan met je gegevens gebeurt. Om medewerkers die met AI willen werken toch deze mogelijkheid te bieden heeft de universiteit nu een eigen tool: Desidera.

De tool is een afgeleide van UvAChat, ontwikkeld door de Universiteit van Amsterdam, en maakt gebruik van taalmodellen die getraind zijn op enorme hoeveelheden tekst om menselijke taal te begrijpen, genereren en voorspellen. Voor nu zijn de gebruikte modellen van OpenAI, het bedrijf achter ChatGPT. In de toekomst moeten daar meer varianten bijkomen.

Wat kan je met Desidera?

Desidera kan net als andere AI-tools oefenvragen bedenken, afbeeldingen genereren, essays beoordelen, of helpen bij de voorbereiding van een werkgroep.

Gebruikers kunnen op maat gemaakte AI-assistenten maken (‘persona’s’) die reageren vanuit een specifieke rol of met een bepaalde stijl. Deze persona’s kunnen gebruikers zelf instellen. Hierbij kunnen ze de gewenste gespreksstijl, expertise en persoonlijkheid kiezen. Zo kun je een AI-assistent bijvoorbeeld inzetten als schrijfcoach of strategieadviseur.

Daarnaast biedt Desidera de mogelijkheid om veelgebruikte prompts (instructies voor de chatbot) op te slaan, zodat je ze makkelijk kunt hergebruiken. Medewerkers kunnen ook eigen projecten creëren. In zo’n projectmap wordt alle informatie opgeslagen die bij een specifiek onderwerp hoort.

Een andere aanpak

Jason Pridmore, hoogleraar Human Centric AI in Society, is nauw betrokken bij de ontwikkeling van Desidera. Hij legt uit waarom de universiteit een eigen AI‑tool heeft gebouwd.

Om te beginnen heeft de universiteit een andere aanpak gekozen. “We zijn van de vraag ‘wanneer is iets goed?’ naar ‘wanneer is iets goed genoeg?’ gegaan.” Wat Pridmore hiermee bedoelt, is dat er op dit moment geen enkele AI-tool is die aan alle behoeften en gebruiksscenario’s van de universiteit voldoet.

Zo kunnen AI-tools hallucineren: momenten waarop kunstmatige intelligentie overtuigend foute informatie presenteert als waarheid. Ook zijn modellen maar tot een bepaalde datum getraind. Wat er na deze datum gebeurd is, weten deze modellen niet.

“De tool is nog niet perfect, maar technologieën hebben altijd tekortkomingen”, zegt hij. “Daarom lanceert de universiteit nu een eerste versie die we goed genoeg vinden, met het doel deze stap voor stap te verbeteren.”

Desidera kan ook afbeeldingen genereren, zoals deze.

Afbeelding door: Gemaakt met Desidera

Bewustzijn over AI vergroten

Ook moet het duidelijker voor gebruikers worden dat niet alle AI-tools hetzelfde zijn. “Verschillende modellen hebben verschillende voordelen”, legt Pridmore uit. “Voor makkelijkere vragen kun je bijvoorbeeld beter een minder complex model gebruiken, omdat dit minder energie verbruikt.”

Een energiezuinig model kan bijvoorbeeld prima een ingewikkeld concept in begrijpelijke taal uitleggen, maar tien wetenschappelijke artikelen samenvatten en met elkaar vergelijken gaat waarschijnlijk beter door een energie-intensiever model.

Desidera wordt beheerd door de universiteit. Volgens Pridmore worden alle gegevens in de tool goed beschermd. “Ons doel is om een eigen veilige en gesloten omgeving te maken, om zo meer datasoevereiniteit te creëren en onze afhankelijkheid van Big Tech te verminderen.”

Veilige data

Toch betekent dit niet dat gebruikers alles aan Desidera kunnen toevertrouwen. Zo mogen medewerkers geen persoonlijke gegevens of gevoelige bedrijfsgegevens delen. Pridmore: “We denken dat de data in veilig beheer zijn, maar zolang we dit niet 100 procent zeker weten willen we niet dat gebruikers vertrouwelijke of geheime informatie delen.”

En kan de universiteit meekijken met medewerkers? Pridmore maakt zich hier geen zorgen over. “Technisch gezien zou het kunnen, maar er zijn veel beschermingsmaatregelen ingebouwd om te voorkomen dat dit gebeurt. We hanteren hiervoor dezelfde protocollen als bij Teams en e-mail.”

Bovendien bestaat er een ‘delete all-functie’, waarmee volgens Pridmore alle eerder ingevoerde gesprekken en documenten permanent verwijderd worden.

De volgende stappen

Pridmore hoopt dat Desidera een volgende stap is om medewerkers en studenten slimmer om te laten gaan met AI. Het is de bedoeling dat studenten vanaf het volgende academische jaar ook toegang krijgen tot de chatbot. Hij hoopt dat studenten en docenten gaan samenwerken in de Desidera-omgeving.

Als voorbeeld noemt hij het lezen van een wekelijkse tekst. “In plaats van dat tweehonderd studenten allemaal een eigen samenvatting laten maken door AI, zouden ze één gezamenlijke samenvatting kunnen gebruiken, gemaakt door de docent. In zo’n project kan elke student ook vragen stellen die medestudenten kunnen lezen. Zo leren ze samen leren, in plaats van ieder voor zich.”

Zelf Desidera uitproberen? Medewerkers kunnen inloggen met hun Erna-ID en direct aan de slag.

Lees verder

Reacties

Laat een reactie achter

Door een reactie te plaatsen ga je akkoord met onze regels voor het plaatsen van een reactie. Lees ze alsjeblieft voordat je een reactie plaatst.

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met (verplicht)

Meer Kunstmatige intelligentie