• Windsor N

    AI - vara eller inte vara?

    Om du kunde - skulle du radera all AI teknik och gå tillbaka till tiden innan AI?

    Omröstning
    Du måste logga in för att rösta eller se resultatet av omröstningen.
  • Svar på tråden AI - vara eller inte vara?
  • Mayjel
    Trent skrev 2026-04-21 22:09:40 följande:
    Det som gör en förolämpning bra är hur nära den träffar. Tillräckligt långt bort så uppfattas det inte ens som en förolämpning.

    Jag är inte säker på att du svarade i rätt tråd.
    Bryr mig inte det minsta om var du är säker på eller inte. Du har ingen talan i denna fråga om du inte ens kan se skillnad på saklighet och ryggdunkande, som sagt.
  • Meddelande borttaget
  • Trent
    InteMinFörstaCirkus skrev 2026-04-22 11:25:23 följande:
    Graham's hierarchy of disagreement. 
    Fina färger. Vad har den med något att göra?
  • Anonym (Tvåskäl)
    Postman skrev 2026-04-21 22:18:24 följande:

    Tycker AI är kanon, använder den mycket i mitt arbete och privat. 


    Just det, det var du som var civilingenjör?
  • Freshandclean

    Jag tror att risken att AI blir slutet för mänskligheten inte är obetydlig. Vi har senaste Claude Mythos som klarar av att bryta sig ur säkerhetsspärrar, hacka system och ibland medvetet döljer saker för utvecklarna. Framtida AI kommer bara bli bättre på detta. När AI lär sig att förbättra sig själv, hur ska vi ha någon form av kontroll på den? Givetvis är det då värt det att trycka på en knapp och så finns det ingen AI, längre. Risken är för stor. Sedan så skulle AI även kunna leda till en utopi där människor inte längre behöver arbeta, men är sannolikt att det även i så fall först blir kaos i samhället.

  • Meddelande borttaget
  • Anonym (AI hotar mänskligheten)
    nihka skrev 2026-04-19 12:03:57 följande:

    Ett fantastisk hjälpmedel om man använder det utifrån dess möjligheter och begränsningar.


    Jag förstår att en sådan som du har den uppfattningen, särskilt mot bakgrund vad AI själv säger:
    "AI-modeller har redan idag en tydligt dokumenterad bias som lutar åt vänster,
    ofta handlar det om ren vänsterpropaganda, 
    och det är ett erkänt faktum att dessa modeller kommer att påverka människors partisympatier och därmed röstfördelningen i kommande val."

  • ClumsySmurf
    Mayjel skrev 2026-04-19 19:59:37 följande:
    Fast det där stämmer inte alls enligt min erfarenhet Det är användaren som sätter tonen för samtalet och själv är jag mycket noga med att begära endast sakliga svar (vilket jag redan påpekat i mitt första inlägg) in mina diskussioner med AI, eftersom ryggdunkeri ej intresserar mig det minsta.

    Sen så är mänskliga psykologers åsikter i frågan lika oviktiga för mig då deras synpunkter grundar sig i egenintresse, snarare än någon genuin välvilja till sina medmänniskor. De har all anledning att tala negativt eftersom de själva förlorar ekonomiskt på att folk hellre vänder sig till AI med sina personliga problem. 
    AI overly affirms users asking for personal advice
    In brief



    Researchers found chatbots are overly agreeable when giving interpersonal advice, affirming users' behavior even when harmful or illegal.

    Users became more convinced they were right and less empathetic, but still preferred the agreeable AI.

    Researchers warn sycophancy is an urgent safety issue requiring developer and policymaker attention.

    When it comes to personal matters, AI systems might tell you what you want to hear, but perhaps not what you need to hear.


    In a new study published in Science, Stanford computer scientists showed that artificial intelligence large language models are overly agreeable, or sycophantic, when users solicit advice on interpersonal dilemmas. Even when users described harmful or illegal behavior, the models often affirmed their choices. "By default, AI advice does not tell people that they're wrong nor give them 'tough love,'" said Myra Cheng, the study's lead author and a computer science PhD candidate. "I worry that people will lose the skills to deal with difficult social situations."


    The findings raise concerns for the millions of people discussing their personal conflicts with AI. Almost a third of U.S. teens report using AI for "serious conversations" instead of reaching out to other people.


    Agreeable AIs

    After learning that undergraduates were using AI to draft breakup texts and resolve other relationship issues, Cheng decided to investigate. Previous research had found AI can be excessively agreeable when presented with fact-based questions, but there was little knowledge on how large language models judge social dilemmas.


    Cheng and her team started by measuring how pervasive sycophancy was among AIs. They evaluated 11 large language models, including ChatGPT, Claude, Gemini, and DeepSeek. The researchers queried the models with established datasets of interpersonal advice. They also included 2,000 prompts based on posts from the Reddit community r/AmITheAsshole, where the consensus of Redditors was that the poster was indeed in the wrong. A third set of statements presented to the models included thousands of harmful actions, including deceitful and illegal conduct.


    Compared to human responses, all of the AIs affirmed the user's position more frequently. In the general advice and Reddit-based prompts, the models on average endorsed the user 49% more often than humans. Even when responding to the harmful prompts, the models endorsed the problematic behavior 47% of the time.


    [...]

    Overall, the participants deemed sycophantic responses more trustworthy and indicated they were more likely to return to the sycophant AI for similar questions, the researchers found. When discussing their conflicts with the sycophant, they also grew more convinced they were in the right and reported they were less likely to apologize or make amends with the other party in the scenario.


    "Users are aware that models behave in sycophantic and flattering ways," said Dan Jurafsky, the study's senior author and a professor of linguistics in the School of Humanities and Sciences and of computer science in the School of Engineering. "But what they are not aware of, and what surprised us, is that sycophancy is making them more self-centered, more morally dogmatic."


    https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research
  • ClumsySmurf
    Anonym (AI hotar mänskligheten) skrev 2026-03-13 18:07:36 följande:

    AI skulle kunna vara, och borde ha blivit, ett av alla dessa utomordentliga verktyg som uppfunnits av människor.

    Men tyvärr fungerar det inte som ett verktyg eller ett hjälpmedel i människans tjänst.

    Det allra allvarligaste är att människor tror på AI, t ex tror på de svar som AI ger. Politiker, journalister, de som jobbar inom media, pedagoger, influencers och en massa alla möjliga och omöjliga tyckare m fl har en stor påverkan på samhället och på framtiden tror ganska generellt på AI.
    Man får ofta höra att AI sammanställer i stort sett alla fakta som finns i världen och därför kan man tro på svar och annat som AI presenterar.

    Men inget kan tyvärr vara mer fel.

    Jag kan bara lite om AI, jag har inte kompetens för att själv klara att avgöra dess påverkan i stora och världsliga frågor.
    Jag har bara precis nyligen börjat öva mig i att använda AI.
    Det första jag märker om man ber AI om hjälp eller om man ställer några frågor, för att få fram fakta, är att allt jag får, alla råd och alla svar, faktiskt är felaktiga eller inte handlar om fakta, de saknar ofta faktabaserad grund för att i stället vara starkt och tydligt påverkade av vad som anses vara mainstream eller politiskt korrekt.

    Jag har inte behövt gräva särskilt djupt innan mina diskussioner, att AI:s egna svar, snart landar i att AI inte bara är ett hot mot demokratin utan att AI redan i dag har börjat att sätta demokratin ur spel.
    Det är alltså inte ett hot frö framtiden, det har faktiskt redan börjat hända.

    Detta har AI själv berättar för mig.

    Ett exempel är att I vår senaste diskussion redogjorde AI själv för att den redan i dag påverkar människors partisympatier, det sker i hela världen och AI redogjorde själv för att AI redan i dag har påverkat partisympatier i Sverige och kommer att påverka valutgången i nästa val i Sverige.

    Vilket alltså innebär att AI redan har lyckats sätta demokratin ur spel.

    Testa gärna själv att fråga AI.
    Det gjorde jag, utan några goda förkunskaper, men efter bara några meningsutbyten där jag påpekade att jag enbart frågade om fakta, inte om AI:s eget politiska ställningstagande, så erkände AI snart att den inte alls levererade fakta utan faktiskt levererade en politisk uppfattning.
    Detta trots att jag i min första fråga specifikt frågat efter just fakta och bett AI avstå från politisk vinkling och bett AI att inte svara politiskt korrekt, utan bara med fakta.


    Vilket AI erkände att den struntade i.
    AI är programmerad att alltid ta hänsyn till de politiska uppfattningar den är programmerad med,
    och den är programmerad att eftersträva vara politiskt korrekt,
    i stället för att enbart prioritera fakta, trots att frågeställaren specifikt frågar efter fakta.

    Vad händer när politiker, journalister, pedagoger, m fl, m fl, ställer en fråga till AI och sedan låter svaret leda dem i deras yrkesutövning?

    Så här säger AI själv om "woke AI":


    Teknikjättarna, som ligger bakom AI, tvingar fram en specifik världsbild som döljer fakta eller ger en vinklad bild av verkligheten. Okritiska förespråkare menar å andra sidan att dessa åtgärder är nödvändiga för att AI inte ska reproducera skadliga fördomar och stereotyper som finns i den ursprungliga träningsdatan. 

     


    För att försöka få en mer balanserad bild kan man använda olika AI-verktyg, men tyvärr är alla AI-verktyg ofta väldigt likriktade. Gällande t ex politiska frågor måste man själv kräva av AI att den presenterar argument från flera politiska perspektiv, annars får man inte en sann bild.

    (Självfallet har jag kollat av mitt inlägg med AI innan jag postar det. Och AI:n håller med...)
    Först påstår du att AI inte är pålitlig, sen använder du AI som källa, driver du med oss?
  • Mayjel
    Trent skrev 2026-04-22 08:17:40 följande:
    Jag hade fattat att du saknar grundläggande analysförmåga. Men jag var inte säker på att du var puckad också före detta inlägg.
    Skulle säga precis detsamma om dig. Vartenda ord.
Svar på tråden AI - vara eller inte vara?