Dus stel je vraagt: “warmt de aarde op en zo ja, waarom?” dan gaat ChatGPT gewoon kijken wat hij daar aan feitelijkheden over kan vinden en zal dan met een passend antwoord komen op basis van al die informatie. Dat zal samengevat iets zijn als “uit tal van onderzoeken blijkt dat de aarde opwarmt en dat dit het gevolg is van menselijk handelen. Het overgrote deel van de experts ondersteunt dat, een minderheid ontkent dat”. Maar dat is niet omdat men het ene antwoord wel in de machine heeft gestopt en het andere niet en men zo invloed op het antwoord uitoefent.
Beste Marnix is dat echt zo? Vragenderwijs iets naar voren brengen en dan maar kijken welke informatie naar boven komt. Ook ChatGPT wordt uiteindelijk gevoed door onderzoeken. Maar laat ik dat ook iets breder trekken: er bestaan lobbyisten die raakvlakken zoeken voor een vraagstuk of een probleem. Dan zou ChatGPT gebruik maken van iets waarvan onderzoekers en wetenschappers al hebben vastgesteld. Met ander woorden het ChatGPT zou daarbij wel eens doorslaggevend kunnen zijn. Natuurlijk vanuit de voorprogrammering die zoekt naar het meest logische en consistente antwoord.
Dan staan wij nu in een nieuw tijdperk waarin ChatGPT het antwoord aan ons geven. Waar blijft dan het gezonde verstand? Is dat toch niet een indirect beïnvloeden van een systeem wat we aan het bouwen zijn. Mag ik dat heel voorzichtig zien als een eigen toren van Babel? Hoe kijkt u naar deze ontwikkeling?