DeepSeek weigert te antwoorden op gevoelige vraag over Oeigoeren
De Chinese AI-chatbot DeepSeek, vaak gezien als een alternatief voor ChatGPT, heeft opvallend gereageerd op een gevoelige vraag over de behandeling van Oeigoeren in China. De Oeigoeren zijn een Turkssprekende moslimminderheid in de regio Xinjiang, in het noordwesten van China. Ze worden volgens Amnesty International onderdrukt en gediscrimineerd door de Chinese regering.
AI-chatbot wijzigt antwoord abrupt
Een gebruiker stelde DeepSeek een vraag over de mensenrechtenschendingen en detentiekampen voor Oeigoeren in China. In eerste instantie gaf de chatbot een uitgebreid antwoord, waarin deze onderwerpen werden aangesneden. Echter, kort daarna verwijderde DeepSeek het antwoord en stelde voor om over een ander onderwerp te praten.
Censuur of technische storing?
Deze gebeurtenis roept vragen op over de mate van censuur die wordt toegepast op AI-chatbots in China. Het lijkt erop dat DeepSeek is geprogrammeerd om bepaalde onderwerpen te vermijden, vooral wanneer deze kritisch zijn ten aanzien van de Chinese overheid.
Het is mogelijk dat deze reactie het gevolg is van een technische storing of een fout in de programmering van de chatbot. Echter, gezien de gevoeligheid van het onderwerp en de timing van het verwijderen van het antwoord, is het waarschijnlijker dat hier sprake is van bewuste censuur.
Bezorgdheid over transparantie en betrouwbaarheid
Dit incident onderstreept de noodzaak van transparantie en betrouwbaarheid bij de ontwikkeling en het gebruik van AI-chatbots. Gebruikers moeten zich bewust zijn van de beperkingen en potentiële biases van deze technologie, vooral wanneer ze worden gebruikt om informatie te verkrijgen over gevoelige politieke en sociale kwesties.
Wat betekent dit voor de toekomst van AI?
De reactie van DeepSeek op de vraag over de Oeigoeren laat zien dat AI-technologie niet neutraal is en dat deze kan worden gebruikt om bepaalde ideologieën of belangen te dienen. Het is van belang dat er strengere regels worden gesteld voor de ontwikkeling en het gebruik van AI, om te voorkomen dat deze technologie wordt misbruikt voor censuur en manipulatie. Dit incident roept zorgen op over censuur binnen in China ontwikkelde AI. Hoewel een technische storing een mogelijkheid is, suggereren de timing en gevoeligheid van het onderwerp opzettelijke censuur.
Het gebrek aan transparantie bij DeepSeek voedt zorgen over de betrouwbaarheid van AI, vooral als het gaat om het verkrijgen van informatie over gevoelige politieke en maatschappelijke kwesties.
Bloedbad Tiananmenplein 1989
Gebruikers melden dat ChatGPT kritiek niet goedkeurt, maar wel neutraler reageert als er kritiek wordt geleverd op het Chinese leiderschap of als het gaat om het bespreken van het bloedblad op het Tiananmenplein in Bejing in 1989. Het plein kwam internationaal in het nieuws toen op 4 juni 1989 een studentenprotest, waaraan naar schatting een miljoen studenten en burgers deelnamen, bloedig werd neergeslagen. Daarbij kwamen een onbekend aantal mensen om het leven, schattingen spreken over enkele honderden tot duizenden slachtoffers.