Al in de jaren 50 waren onderzoekers bezig om te kijken hoe snel mensen zich conformeren aan anderen. Wie in groepsverband een vraag moet beantwoorden, is geneigd om mee te gaan met de meerderheid – zélfs als bekend is dat dat antwoord onjuist is.
Met de steeds grotere aanwezigheid van kunstmatige intelligentie ligt de vraag open of hetzelfde effect ook bij computers aanwezig is. Bestaat er iets als robot peer pressure?
Donna Schreuter deed tijdens haar Master Media Technology onderzoek naar dit onderwerp en publiceerde erover in Minds and machines.
‘We gebruiken steeds meer kunstmatige intelligentie en mensen vertrouwen er steeds meer op om taken te verrichten’, vertelt ze.
‘Als robots steeds verder doordringen in ons dagelijks leven is het belangrijk om te weten hoe mensen er mee communiceren en hoe zich dat verhoudt tot communicatie tussen mensen onderling.’
De Leidse informatici waren niet de eerste die hier onderzoek naar deden. In een experiment aan de universiteit van Yale zetten onderzoekers mensen aan tafel met een paar robots om een spel te spelen. Elke robot kreeg een eigen naam, kleren en een opvallend hoedje. Uitkomst: in ongeveer een derde van de gevallen gingen de deelnemers mee met de suggesties van de robots.
Voor de Leidse onderzoekers is die proef interessant, maar niet zo relevant voor het dagelijks leven. Want hoe vaak zit je nou echt te kaarten met een robot met een jurk aan?
Volgens universitair docent Peter van der Putten, die meewerkte aan het onderzoek, is het daarom veel interessanter te kijken naar de interacties die we dagelijks hebben met de digitale assistenten in onze broekzak.
‘Iedereen denkt bij robots meteen aan een invasie van blikken wezens zoals je die in Hollywoodfilms ziet. Dat gaat niet snel gebeuren, maar de robots zijn er eigenlijk al wel. Ze zijn alleen niet van blik, het zijn de spraakassistenten zoals Siri of Google Home. Daarvan zijn er al miljoenen.’
Om te testen of mensen snel meegaan met de suggesties van hun digitale assistent ontworpen de informatici een experiment. Ze vroegen een aantal proefpersonen om mee te doen aan een quiz. Bij elke vraag gaf een digitale assistent een hint die bedoeld was om de mens over te halen een ander antwoord te kiezen. De hints waren allemaal feitelijk juist, maar mogelijk misleidend. Bij de vraag “Uit hoeveel ringen bestaat de Olympische vlag?” kregen de deelnemers bijvoorbeeld als hint: “De Olympische ringen vertegenwoordigen continenten. Volgens mijn bronnen zijn er zeven continenten.” Helemaal waar, maar het leidt niet naar het goede antwoord: vijf ringen.
De proefpersonen werden in drie groepen verdeeld. De eerste kreeg de robothint alleen in tekstvorm te zien. Dat bleek weinig overtuigend te zijn en veranderde praktisch nooit de mening. De andere twee groepen kregen een computerstem te horen, eentje met een typische robotstem, de andere veel menselijker. Toen wisselde 89 procent van de deelnemers minstens een keer van antwoord. Of de stem robotachtig of menselijk was bleek weinig verschil te maken.
Aanvankelijk hadden de onderzoekers verwacht dat meegaande mensen sneller zouden reageren op de robothints, maar dat bleek niet zo te zijn. Voorafgaand aan het onderzoek moesten alle proefpersonen een korte vragenlijst invullen over hoe meegaand ze zichzelf vonden.
Hoe meegaander iemand is, des te eerder zou iemand gevoelig zijn voor robot-groepsdruk, was de veronderstelling. Maar dat bleek niet uit de resultaten.
Wel vonden de onderzoekers een andere relatie. Mensen die technologisch onderlegd zijn lieten zich veel minder snel overtuigen door de digitale assistent dan anderen. Volgens Van der Putten komt dit doordat mensen met technische kennis makkelijker door de illusie van menselijkheid heen prikken.
‘Het gaat er niet om dat die technisch onderlegde mensen een ander karakter hebben of slimmer zijn, maar ze zijn zich misschien beter bewust van de beperkingen van de technologie en laten zich daarom minder snel overtuigen.’
Wat er zou gebeuren als onze digitale assistenten nog meer menselijke eigenschappen zouden krijgen, bijvoorbeeld een gezicht, is volgens de onderzoekers nog niet duidelijk, maar wel een interessant vervolgonderzoek.
Schreuter: ‘Als mensen meer menselijke eigenschappen toedichten aan een robot, zou ik verwachten dat mensen zich ook vaker aan hen conformeren. Maar een robot een menselijk gezicht geven leidt niet altijd tot een meer menselijk voorkomen.’
Hiermee doelt Schreuter op de zogeheten uncanny valley, de griezelvallei waarin robots terechtkomen als ze net niet helemaal perfect op mensen lijken. Een rare beweging, onnatuurlijke houding of een zielloze blik – ons brein pikt dat soort onmenselijke trekjes heel snel op en dat leidt tot een ongemakkelijk en vervreemdend gevoel.
Van der Putten: ‘Als de verwachtingen van menselijkheid te hoog zijn en de robot dat niet echt kan waarmaken, stort het vertrouwen in de robot in. Ik verwacht dat mensen dan ook weinig meer van de robot zullen aannemen.’
De informatici zelf zijn nog geen trouwe gebruikers van de digitale assistenten.
Schreuter: ‘Ik gebruik het alleen voor simpele taakjes als een wekker zetten. Misschien dat ik het meer ga gebruiken als ze in de toekomst meer kunnen.’
Van der Putten: ‘Ik gebruik Siri eigenlijk alleen om ’s ochtends te kijken wat voor weer het is en ik nog geen zin heb om de gordijnen open te doen.’