Wij schenden geen rechten. Dat doen gebruikers’, stelde OpenAI onlangs in een rechtszaak over auteursrecht. De redenering is bekend: wat uit een systeem komt, is wat mensen erin stoppen. ChatGPT genereert niets uit zichzelf. Dus als de output verdacht veel lijkt op bestaand werk, ligt de verantwoordelijkheid bij de promptende gebruiker, zo oordeelt OpenAI.
Het klinkt bekend. Tien jaar eerder probeerde Microsoft hetzelfde. Binnen 24 uur na lancering ontspoorde de chatbot Tay door racistische teksten uit te spugen op Twitter. Ook toen werd de schuld buiten de organisatie geplaatst. Tay’s uitspraken waren, zo stelde Microsoft, ‘een afspiegeling van het soort interacties dat mensen met haar hadden.’ Met andere woorden: het ligt aan de buitenwereld, niet aan de bot. OpenAI en Microsoft zijn daarin niet uniek. LinkedIn en Facebook grepen naar vergelijkbare verklaringen toen hun algoritmes discriminerende of seksistische output produceerden. Steeds weer met dezelfde ondertoon: het probleem zit niet in het systeem en al helemaal niet bij de makers. AI reflecteert slechts wat in mens en maatschappij aanwezig is.
Communicatiewetenschappers Andrew Prahl en Winnie Wen Pin Goh geven deze aanpak een passende naam: de spiegelstrategie. In hun analyse laten zij zien hoe organisaties bij falende AI-systemen een nieuw type crisisrespons inzetten. Een strategie die klinkt als schuldverschuiving en voelt als ontkenning, maar in feite iets subtielers doet. De spiegelstrategie combineert twee klassieke reacties uit crisiscommunicatie. Enerzijds ontkenning: ‘Wij hebben geen schuld, dit is nu eenmaal hoe AI werkt.’ Anderzijds een vorm van scapegoating. Maar waarbij traditionele scapegoating de schuld wordt afgeschoven op een duidelijke actor – een medewerker, een leverancier, een externe partij –, wordt hier de verantwoordelijkheid gelegd bij iets veel diffuusers: de samenleving zelf. Of, implicieter: bij ons allemaal.
Door de schuldvraag terug te kaatsen, laat deze strategie zien hoe big tech omgaat met AI-verantwoordelijkheid. Complexiteit wordt ingezet als camouflage. AI heeft geen eigen wil of intenties. De output ontstaat uit een samenspel van interne ontwerpkeuzes en externe prompts. Daarmee blijft verantwoordelijkheid vaag. Maar naast reflecteren confronteren spiegels. Want wie stelt: ‘Dit zegt iets over de wereld’, zegt ook: ‘Dit zegt iets over ons.’ Over de CEO’s die richting geven, datascientists die datasets genereren, de AI-engineers die modellen trainen en de managers die ze accorderen. Kortom: over de mensen die AI bouwen, trainen en inzetten. In de rechtszaal hield de redenering van OpenAI dan ook geen stand. Het auteursrecht was wél geschonden. De spiegel brak. En daarmee werd zichtbaar wat communicatieprofessionals al langer weten: verantwoordelijkheid laat zich niet eindeloos wegschuiven. Soms is het effectiever om jezelf kritisch in de spiegel te bekijken.
——
Lotte Willemsen is bijzonder hoogleraar op de Logeion-leerstoel Strategische Communicatie bij de afdeling communicatiewetenschap van de Universiteit van Amsterdam.
——
Dit artikel verscheen eerder in C – het communicatiemagazine van Nederland




