Anonym (Anna) skrev 2025-01-10 20:17:36 följande:
Ja, så är det absolut. ChatGPT har inte förmågan att säga att den inte vet svaret på en viss fråga. Modellen har ingen aning om vad den själv vet eller inte vet, och den kommer att låta lika självsäker i sitt svar oavsett. Som jag skrev tidigare så kommer den också att ge en det svar den tror att man vill ha, så lägger du in fraser som ?det är väl som så att?? eller ?eller hur?? så kommer den sannolikt hålla med även om du har fel. Det är helt enkelt så dessa modeller fungerar och något man får anpassa sig till. Jag tror jag försökte förklara detta i mitt första svar, att svaret beror mycket på hur man promptar.
Om du har någon eller några konversationer att dela med dig av där du fått galna svar, så kanske vi kan se om det går att påverka modellen att svara rätt? Helst något som inte är superkomplicerat utan en fråga som man som normalbegåvad vuxen kan svara rätt på efter max en halvtimmes påläsning, så att vi kan komma överens om vad som faktiskt är rätt svar.
Om man använder chatGPT med insikten om att den låter självsäker fastän den inte har en aning så är den till nytta. Det svar man får skriver man ju inte in som "färdigt" utan man dubbelkollar. Då ser man ganska omgående om den ur ute och seglar. Ibland har den "lite" fel men leder ofta en in på rätt spår/nytt spår så nån form av hjälp får man oftast.