• Anonym (Ångest)

    Använda chatGPT för terapi

    Vad tycker ni om det? Någon som har provat? 

  • Svar på tråden Använda chatGPT för terapi
  • Anonym (Mycket bra)
    Anonym (R) skrev 2025-11-02 16:06:35 följande:

    Ja
    Chatt GPT säger iaf inte att jag är hopplös och slösar hans tid som min psykolog på psykiatrin gjorde. 


    Vilken hemsk upplevelse! 
  • Anonym (Rekommenderar inte)

    Jag har provat för att jag varit nyfiken och gett den påhittade scenarion. Chat GPT ger dig svaren du vill höra inte vad du behöver jobba på eller vad obekväma sanningar. Du är alltid bäst och viktigast! Inget av det du säger skyddas heller och den vet din ip adress. 

  • Anonym (Blivitvanligt)
    Anonym (Rekommenderar inte) skrev 2025-11-17 12:22:40 följande:

    Jag har provat för att jag varit nyfiken och gett den påhittade scenarion. Chat GPT ger dig svaren du vill höra inte vad du behöver jobba på eller vad obekväma sanningar. Du är alltid bäst och viktigast! Inget av det du säger skyddas heller och den vet din ip adress. 


    Fast även om den vet din IP och har annan info om dig så får det inte lämnas ut, svarar ChatGPT själv. Så sekretessen lär vara garanterad. Sedan anpassar den sig väldigt mycket och, som du säger, svarar det du vill höra. Men samtidigt hänvisar den ofta till fakta och undersökningar, så¨man kan inte ta den för oseriös trots allt.
  • ClumsySmurf
    Anonym (Frame) skrev 2025-11-02 19:42:30 följande:
    Han verkar faktiskt vara rätt vettig egentligen men numera hoppar jag alltid över hans inlägg eftersom de mest liknar lapptäcken päoch orkar inte med den.

    Jag ber dig Clumsy. Snälla börja skriva vad du tycker istället. Kort och koncist. 
    Det gjorde jag i första inlägget
    ClumsySmurf skrev 2025-11-01 07:53:17 följande:

    ChatGPT bör inte användas för terapi


     Dr. K förklar varför:





  • Anonym (Rekommenderar inte)
    Anonym (Blivitvanligt) skrev 2025-11-17 14:51:58 följande:
    Fast även om den vet din IP och har annan info om dig så får det inte lämnas ut, svarar ChatGPT själv. Så sekretessen lär vara garanterad. Sedan anpassar den sig väldigt mycket och, som du säger, svarar det du vill höra. Men samtidigt hänvisar den ofta till fakta och undersökningar, så¨man kan inte ta den för oseriös trots allt.

    Men oj, om chat GPT säger det så måste det ju vara sant! För precis allt chat GPT säger stämmer! Seriöst, jag tycker chat GPT har fel oftare än den har rätt. 


    Faktan och undersökningarna är ju baserad på en algoritm och de är inte anpassade för en terapisession. Chat GPT tar heller ingen hänsyn alls till personer i omgivningen som inte är personerna de pratar med. Jag sa exempelvis till chat GPT att jag hade haft ett förhållande med min gifta kollega i 2 år och mådde skitdåligt över situationen. Kontentan av den konversationen var att både min chef och min kollegas fru skulle vara förstående och att jag skulle tänka på mig själv. Jag fick också veta vad lagen sa om arbetsrätt (där har du din statistik och dina lagar) 

  • Anonym (Blivitvanligt)
    Anonym (Rekommenderar inte) skrev 2025-11-17 19:28:42 följande:

    Men oj, om chat GPT säger det så måste det ju vara sant! För precis allt chat GPT säger stämmer! Seriöst, jag tycker chat GPT har fel oftare än den har rätt. 


    Faktan och undersökningarna är ju baserad på en algoritm och de är inte anpassade för en terapisession. Chat GPT tar heller ingen hänsyn alls till personer i omgivningen som inte är personerna de pratar med. Jag sa exempelvis till chat GPT att jag hade haft ett förhållande med min gifta kollega i 2 år och mådde skitdåligt över situationen. Kontentan av den konversationen var att både min chef och min kollegas fru skulle vara förstående och att jag skulle tänka på mig själv. Jag fick också veta vad lagen sa om arbetsrätt (där har du din statistik och dina lagar) 


    ChatGPT funkar så att du måste vara tydlig med olika omständigheter och formulera dig på ett tydligt sätt. Även om AI-hypen har blåst upp det till att AI ska bli som människor och får eget liv, så styrs det som du säger av algoritmer och insamlande av info, som kan sökas efter med en sökmotor. ChatGPT:s svar ska likna en människas, men man är egentligen bara i startgroparna och AI är inte så värst utvecklat än, och dessutom är det inget nytt. Vi tidiga datanördar vet att AI kom med de första hemdatorerna. För vanliga mobilscrollare som inte befattat sig så mycket med datorer innan, är det förstås något nytt.
  • Anonym (Blivitvanligt)
    TvillingmammaVästgöte skrev 2025-11-02 10:01:35 följande:

    Den är absolut inte mänsklig, Anis språkmodell bara använder allt data som finns på internet , och med hjälp av sannolikhetslära och matematik skapar den meningar baserat på frågan och all text som finns på nätet.
    Jag kan inte se något mänskligt med det. 


    En AI-agent eller Chat har inga känslor , inget medvetande, ingen vilja eller motivation. När du chattar så får du en känsla att du chattar med något med mänskliga egenskaper, men det är bara en illusion. 


    Problemet är väl att den hämtar "fakta" från forum som Reddit, Flashback och Familjeliv med. Och hur vissa förhåller sig till fakta där vet man ju.
  • Anonym (Rekommenderar inte)
    Anonym (Blivitvanligt) skrev 2025-11-17 19:45:32 följande:
    ChatGPT funkar så att du måste vara tydlig med olika omständigheter och formulera dig på ett tydligt sätt. Även om AI-hypen har blåst upp det till att AI ska bli som människor och får eget liv, så styrs det som du säger av algoritmer och insamlande av info, som kan sökas efter med en sökmotor. ChatGPT:s svar ska likna en människas, men man är egentligen bara i startgroparna och AI är inte så värst utvecklat än, och dessutom är det inget nytt. Vi tidiga datanördar vet att AI kom med de första hemdatorerna. För vanliga mobilscrollare som inte befattat sig så mycket med datorer innan, är det förstås något nytt.
    Det spelar ingen roll hur man formulerar sig, chat GPT är inte bra som terapeut och den är inte bra på att svara på faktafrågor heller då är Wikipedia tusen gånger bättre. 
  • Anonym (D)
    Anonym (R) skrev 2025-11-02 16:06:35 följande:

    Ja
    Chatt GPT säger iaf inte att jag är hopplös och slösar hans tid som min psykolog på psykiatrin gjorde. 


    Det är tjänstefel av en psykolog att säga så till en patient!

    I en sådan situation behöver patienten kanske ha en annan terapeut. (Eller om patienten känner sig tvingad att gå i terapi så kan det vara patienten som håller igen. Då är det meningslöst att fortsätta gå men då vet bu patienten också om varför det är så). 

    Oavsett, så säger man inte så till en patient!
  • Anonym (R)
    Anonym (D) skrev 2025-11-17 22:38:21 följande:
    Det är tjänstefel av en psykolog att säga så till en patient!

    I en sådan situation behöver patienten kanske ha en annan terapeut. (Eller om patienten känner sig tvingad att gå i terapi så kan det vara patienten som håller igen. Då är det meningslöst att fortsätta gå men då vet bu patienten också om varför det är så). 

    Oavsett, så säger man inte så till en patient!

    Problemet var att jag har väldigt svår social fobi, så pass att jag har svårt att prata med andra. Vilket jag berättade för henne. Och det var anledningen till att jag fick remissen dit. Men hon tappade tålamodet och fräste till. 

    Hon var en arg rysk dam utan någon form av empati. Hon gick sin utbildning i Ryssland innan jag ens var född. De kanske lärde ut att hota folk istället för att stärka

  • Hejjan

    Jag tycker det är väldigt spännande fråga och den har fått intressanta svar, om tillgänglighet, om vad AI är och inte är och vad AI kan göra och inte kan göra. 

    Jag tänker att det hör till våra mänskliga förmågor att vi kan läsa in känslor och intentioner också där de inte finns, och att det är det som ligger bakom att vi kan använda AI som terapeut eller känslomässigt bollplank eller till och med en vän. Och just därför kan det funka, trots att vi vet att det egentligen bara är ett system vi bollar med.

    Jag skriver just nu en kandidatuppsats i psykologi som handlar om vad man tycker är viktigt när man chattar med t ex ChatGPT och hur man uppfattar kontakten med den. Om det är någon av er som vill fundera vidare på de frågorna får ni gärna svara på min enkätundersökning

    https://survey.miun.se/survey/283


     

  • Anonym (Blivitvanligt)
    Hejjan skrev 2026-02-06 10:58:15 följande:

    Jag tycker det är väldigt spännande fråga och den har fått intressanta svar, om tillgänglighet, om vad AI är och inte är och vad AI kan göra och inte kan göra. 

    Jag tänker att det hör till våra mänskliga förmågor att vi kan läsa in känslor och intentioner också där de inte finns, och att det är det som ligger bakom att vi kan använda AI som terapeut eller känslomässigt bollplank eller till och med en vän. Och just därför kan det funka, trots att vi vet att det egentligen bara är ett system vi bollar med.

    Jag skriver just nu en kandidatuppsats i psykologi som handlar om vad man tycker är viktigt när man chattar med t ex ChatGPT och hur man uppfattar kontakten med den. Om det är någon av er som vill fundera vidare på de frågorna får ni gärna svara på min enkätundersökning

    https://survey.miun.se/survey/283


     


    Särskilt CoPilot kommunicerar ju mer eller mindre som en människa, ger en beröm och uppskattning och känns mer personlig. ChatGPT är mer saklig och formell i sina svar. Men på samma sätt som data/TV-spel kunde kännas "levande när man var yngre, så är det inte konstigt att människor upplever det som mänskliga svar när AI bemöter en på ett personligt sätt.
  • ClumsySmurf
    Hejjan skrev 2026-02-06 10:58:15 följande:

    Jag tycker det är väldigt spännande fråga och den har fått intressanta svar, om tillgänglighet, om vad AI är och inte är och vad AI kan göra och inte kan göra. 

    Jag tänker att det hör till våra mänskliga förmågor att vi kan läsa in känslor och intentioner också där de inte finns, och att det är det som ligger bakom att vi kan använda AI som terapeut eller känslomässigt bollplank eller till och med en vän. Och just därför kan det funka, trots att vi vet att det egentligen bara är ett system vi bollar med.

    Jag skriver just nu en kandidatuppsats i psykologi som handlar om vad man tycker är viktigt när man chattar med t ex ChatGPT och hur man uppfattar kontakten med den. Om det är någon av er som vill fundera vidare på de frågorna får ni gärna svara på min enkätundersökning

    https://survey.miun.se/survey/283


     


    Det är ChatGPTs vilseledande design som gör att man tror att det kan funka, men en sökmotor som inte har riktig artificiell intelligens och som är designad att ge medhåll blir ju motsatsen till KBT.
  • Anonym (D)
    Anonym (R) skrev 2025-11-19 05:24:57 följande:

    Problemet var att jag har väldigt svår social fobi, så pass att jag har svårt att prata med andra. Vilket jag berättade för henne. Och det var anledningen till att jag fick remissen dit. Men hon tappade tålamodet och fräste till. 

    Hon var en arg rysk dam utan någon form av empati. Hon gick sin utbildning i Ryssland innan jag ens var född. De kanske lärde ut att hota folk istället för att stärka


    Det är extremt sällan som någon psykolog blir arg och fräser på en patient. En professionell ska kunna hålla kvar en lugn ton. Den enda gång som jag kan tänka mig att någon skulle tappa behärskningen är ifall en patient erkänner ett fruktansvärt brott eller liknande direkt under sessionen. Men knappt ens då. 

    Psykologer är ju också människor, men grundläggande för terapi är en respektfull dialog mellan patient och psykolog. Patienten ska kunna lita på psykologen och inte behöva bära den personens känslor. 

    Tycker att det som du beskrev från den terapin  är sådant som man kan anmäla. 

    Försök att gå i terapi med någon annan och du kommer att finna ett lugnare och mer konstruktivt klimat.

    Har svårt att tro att ens ryska psykologer har lärt sig att de ska skälla på folk.

    En Chattrobot kan säga "kloka saker" om den har läst in mängder av seriös information som är skriven i det ämnet. Det är en språkmodell som radar upp de ord som oftas följer i det sammanhang som du har ställt din fråga. Ett slags statistisk sannorlikhet att nästa ord följer på det föregående. Därför kan svaret bli lite olika beroende på hur du ställer en liknande fråga.

    Medan en psykolog ska förstå den djupare innebörden av vad du frågar och tolka kroppshållning, röstläge och känslouttryck.  
  • Anonym (#)

    Jag använde den som terapi och det fungerar.


    Man måste ha betalfunktion så den kan komma ihåg allt man sagt och att man ger den mer personliga inställningar så den inte bara säger saker du vill höra.
Svar på tråden Använda chatGPT för terapi