top of page

Bing Chat is slechter dan ChatGPT-4

Bijgewerkt op: 2 okt. 2023

Onder het vriendelijke uiterlijk van Bing Chat schuilt een eigenzinnige, belerende chatbot, die altijd op zijn hoede is, me niet begrijpt en te veel fouten maakt.

Microsoft overtuigt me niet

Toegegeven, ik ben een ChatGPT.

Maar dat betekent niet dat ik Bing Chat geen kansen geeef - integendeel. Met de regelmaat van een klok schotel ik het dezelfde vragen voor die ik aan ChatGPT-4 stelde.


En hoewel beide chatbots min of meer hetzelfde LLM (large language model) gebruiken - GPT-4 - slaat Bing Chat de bal herhaaldelijk mis.

Mijn lijstje met ergernissen:


1. Bing Chat hallucineert erop los


Toegegeven: élke AI-chatbot verzint feiten, inclusief ChatGPT. Trouwens, ChatGPT, wie ben ík eigenlijk? Maar áls ik Bing dan bewust in 'nauwkeurige' modus schakel, verwacht ik geen uitschuiver zoals deze:

Zeker niet omdat hij in dit geval zelf het web opgaat om zijn antwoord te formuleren en/of te checken.

2. Bing Chat begrijpt me niet én is een betweter

Bij de start van deze chat bleek overigens al dat Bing Chat me niet meteen begrijpt, omdat hij geen rekening houdt met de context. Bovendien tikt hij me daarmee betweterig en onterecht op de vingers:



Oké, ik gebruikte de drie magische woorden niet. Maar als een AI-chatbot als Bing al niet begrijpt dat ik met 'LLM' een large language model bedoel wanneer ik vraag naar het verschil met een AI-chatbot?!

En het wordt erger. Want even later vraag ik - in dezelfde chat - naar het LLM dat 'LLaMA' heet. Oké, Bing Chat mag dan wel in nauwkeurige modus werken, maar de kans dat ik in deze context meer wil weten over een diersoort, is infinitesimaal:


3. Bing Chat is eigenzinnig en grof





126 weergaven

Recente blogposts

Alles weergeven
bottom of page