Vill inleda med att AI kan betyda mycket och alla verktyg är inte samma sak. Du nämner ChatGPT, så jag gissar du menar LLM:er (stora språkmodeller, om vi försöker översätta till svenska).
Så vad är en LLM? En LLM, som tex ChatGPT, är ett AI-verktyg som har plöjt igenom tonvis med text: typ internet, böcker, artiklar. Den har inte en databas som Google, utan är tränad att gissa vad som är ett bra svar genom att känna igen mönster i all text den sett. Du kan föreställa dig en avancerad autokomplettering som försöker ?låta mänsklig?. Den är uppbyggd av neurala nätverk, som är som ett digitalt spindelnät av kopplingar mellan ord och idéer. Ren matte i bakgrunden, som annan programmering.
Så om vi då jämför Google och ChatGPT
Google är en sökmotor och ger dig länkar till sidor. Du får själv kolla vad som är sant, analysera innehållet. Det känner vi nog flesta av oss till idag 2025 😅
ChatGPT spottar ut ett färdigt svar baserat på vad den lärde sig under träning. Den söker inte nödvändigtvis live (men har idag förmågan att göra det) och kan slänga ur sig fel eller gammal info, men det låter ofta övertygande.
LLM:er är bra för snabba förklaringar eller idéer, men de kan hitta på skit (så kallade ?hallucinationer?). Google är bättre om du vill ha källor att dubbelkolla men såklart, det kräver att användaren kan analysera information, vara källkritisk.
Jag som arbetat med ChatGPT sedan en månad efter det släpptes för allmänheten, sett den ge svar som låter klockrena men är helt ute och cyklar när man granskar dem.
Nu är ju detta bara ett av många områden folk använder tex ChatGPT för, men förstår det som din fråga huvudsakligen syftar till informationssökning.