"Zeker niet Bing Chat." Dat is mijn antwoord op de vraag naar ChatGPT-alternatieven. Want van zodra je Bing op een fout wijst, weigert hij nog met je te praten.
Huilebalk Bing Chat
Bing is een AI-chatbot die niet in staat is om zijn fouten toe te geven. Deze tekstrobot breekt de conversatie dan zelfs abrupt af.
Twee treffende voorbeelden van puberaal gedrag, waarop ik ChatGPT nog nooit betrapte:
Wanneer ben ik geboren, Bing Chat?
Ik vraag wanneer Wim Van Rompuy geboren werd:
Bing Chat heeft niet door dat de copywriter en de apotheker een en dezelfde persoon zijn - ik. Maar goed, dat kan gebeuren met AI-chatbots.
Het gerommel begint wanneer ik de chatbot erop wijs dat hij hallucineert: ik ben echt niet de broer van de Europese president. Tenzij een wellustige melkboer meer weet.
Toch wil Bing Chat wil niet toegeven dat hij foute info verstrekt. Zelfs niet wanneer ik onthul dat ík de eigenaar ben van de bron die hij fout citeert: https://vanromp.be.
Dan wil hij zelfs niet meer verder met me wil praten:
En hopla: het chatvak verdwijnt gewoonweg!
Nou moe, wat een huilebalk. Op mijn 'begrip' moet hij alvast niét rekenen.
Wat bedoel je, Bing Chat?
Hoe snel Bing Chat ontspoort, blijkt uit een conversatie van enkele dagen later.
Ook al krijg ik vaak het deksel op de neus, toch gebruik ik Bing nog wel eens om snel een benaderend antwoord te hebben op iets actueels. Onze korte chat begint in opperbeste stemming: de tekstrobot stelt me zelf voor om hem proactief op fouten te wijzen:
Dat is maar goed ook, want ik spreek hem aan in zijn 'Nauwkeurigere' stand:
M'n vraag:
Ik weet niet wat hij in de derde regel met een 'winstbeperkte tak' bedoelt. Dus vraag ik:
Tja, wat moet ik met dit antwoord, Bing? Dat laat ik hem ook weten:
En hup, de chatbox is weer weg!
En weet ik nu wel zeker: Bing is een druiloor.
Comments