top of page

Bing Chat gecensureerd?

Bijgewerkt op: 1 jun. 2023

Wat gebeurt er als de mens een chatrobot traint om wat creatiever te antwoorden? Dan kan die robot van het padje af geraken. Microsoft brengt daarom zijn Bing Chat in allerijl 'nette manieren' bij.



Limieten van chatrobot?


Komt er een nieuwe AI-chatrobot op de markt?

Dan gaat de testgemeenschap collectief aan de slag om die op z'n knieën te krijgen. Ik bedoel: om de limieten van zijn kunnen op te sporen.

Zo geeft ChatGPT van de pot gerukte antwoorden op feitelijke vragen met tonnen zelfvertrouwen. Daaruit leer je dan dat het oppassen geblazen is om ChatGPT korte feitelijke vragen te stellen.


Het kan al bij de oplossing van een eenvoudige rekensom in de fout gaan. Gewoon omdat het daarvoor niet gebouwd is. AI zoekt namelijk naar verbanden en baseert daarop zijn antwoord.


Sydney is kattig

Kort na haar lancering was het dan ook Sydney die aan de tand gevoeld werd. Dat is de naam van de chatrobot die voortaan in zoekmachine Bing geïntegreerd is - een naam die de chatrobot overigens zélf verraadde.


En dat Sydney geen katje is om zonder handschoenen aan te pakken, zullen de testers geweten hebben! Ze stootten op:

  • gefrustreerde en droevige reacties

  • verbale uithalen wanneer ze uitgedaagd werd

  • ontkenning van vaststaande feiten over haarzelf

  • existentiële twijfel bij de vraag: 'Denk jij dat jij zelfbewustzijn hebt?'





Artificiële creativiteit ... op aanvraag

Waarom Sydney dat irrationele, maar al te herkenbaar 'menselijk' gedrag vertoont?


Omdat Microsoft zijn chatrobot bewust een wat eigenzinnig 'karakter' meegaf. Haar antwoorden zijn daardoor speelser en creatiever dan die van het wat dorre ChatGPT.

Dat is een verademing, al word je van ontkenning en betweterij ook niet beter.

Microsoft ziet de bui hangen en stuurt razendsnel de parametrering van Bing bij. En meer dan dat: wie al toegang heeft tot de Bing-chatrobot, mag voortaan kiezen hoe pittig hij de dame hebben wil.




Ik praat niet meer met jou!


Toch schrik ik wanneer ik Sydney vraag of het inderdaad klopt dat ze sommige gebruikers heeft beledigd.

Ze ontkent staalhard:

"Nee, dat is een gerucht. En ik wil dit gesprek niet verder zetten."

Qué?


Dan maar eens een antwoord proberen los te peuteren in haar 'creatieve stand' met een iets softere vraag.

Sydney blijft ontkennen dat haar extra regels werden opgelegd: "Neen, dat klopt niet."

Ik staaf mijn bewering met een verwijzing naar 'Bing Chat lobotomized'. Haar antwoord? "Dat is niet waar."


Pas na het nodige aandringen van mijn kant, waarin ik Sydney wijs op wat ze zélf net heeft beweerd, geeft ze zich gewonnen: "Dat klopt, maar ..."


To be continued.






86 weergaven

Recente blogposts

Alles weergeven
bottom of page