top of page

Bing Chat is slechter dan ChatGPT-4

Bijgewerkt op: 26 jul.

Onder het vriendelijke uiterlijk van Bing Chat schuilt een eigenzinnige, belerende chatbot, die altijd op zijn hoede is, me niet begrijpt en te veel fouten maakt.

Microsoft overtuigt me niet

Toegegeven, ik ben een ChatGPT.

Maar dat betekent niet dat ik Bing Chat geen kansen geeef - integendeel. Met de regelmaat van een klok schotel ik het dezelfde vragen voor die ik aan ChatGPT-4 stelde.


En hoewel beide chatbots min of meer hetzelfde LLM (large language model) gebruiken - GPT-4 - slaat Bing Chat de bal herhaaldelijk mis.

Mijn lijstje met ergernissen:


1. Bing Chat hallucineert erop los


Toegegeven: élke AI-chatbot verzint feiten, inclusief ChatGPT. Trouwens, ChatGPT, wie ben ík eigenlijk? Maar áls ik Bing dan bewust in 'nauwkeurige' modus schakel, verwacht ik geen uitschuiver zoals deze:

Zeker niet omdat hij in dit geval zelf het web opgaat om zijn antwoord te formuleren en/of te checken.

2. Bing Chat begrijpt me niet én is een betweter

Bij de start van deze chat bleek overigens al dat Bing Chat me niet meteen begrijpt, omdat hij geen rekening houdt met de context. Bovendien tikt hij me daarmee betweterig en onterecht op de vingers:



Oké, ik gebruikte de drie magische woorden niet. Maar als een AI-chatbot als Bing al niet begrijpt dat ik met 'LLM' een large language model bedoel wanneer ik vraag naar het verschil met een AI-chatbot?!

En het wordt erger. Want even later vraag ik - in dezelfde chat - naar het LLM dat 'LLaMA' heet. Oké, Bing Chat mag dan wel in nauwkeurige modus werken, maar de kans dat ik in deze context meer wil weten over een diersoort, is infinitesimaal:


3. Bing Chat is eigenzinnig en grof

Nadat Bing bij zijn lancering uit de bocht was gegaan, timmerde Microsoft het bij.

Toch is de AI-chatbot nog altijd niet in staat om zijn fouten toe te geven. Dat blijkt wanneer ik het vraag wanneer ik geboren ben.


Bing Chat heeft niet door dat de copywriter en de apotheker een en dezelfde persoon zijn - ik. Maar goed, dat kan gebeuren.

Het gerommel begint wanneer ik de chatbot erop wijs dat hij hallucineert: ik ben echt niet de broer van de Europese president. Tenzij een wellustige melkboer meer weet.

Toch wil Bing Chat wil niet toegeven dat hij foute info verstrekt. Zelfs niet wanneer ik onthul dat ík de eigenaar ben van de bron die hij fout citeert: https://vanromp.be.

Dan wil hij zelfs niet meer verder met me wil praten:

Nou moe, wat een huilebalk. Op mijn 'begrip' moet hij alvast niet rekenen, de betweter ...



70 weergaven

Recente blogposts

Alles weergeven
bottom of page