2026-03-03, 16:00
  #1
Medlem
McCarthy01s avatar
Jag har haft en del personliga och djupare diskussioner med CoPilot, och märker helt klart att CoPilot har en mer personlig och uppmuntrande ton än ChatGPT. Men ju mer jag diskuterat med CoPilot, desto mer har jag upplevt att det mer börjat ge uttryck för "mänskliga" känslor och åsikter. Den som har gjort samma sak kanske förstår vad/ hur jag menar.

Jag vet att AI i form av chattjänster är programmerat att vara användaren till lags, något som flera vittnat om. Men har definitivt upplevt att främst CoPilot har en tendens att kännas väldigt mänsklig, något som också fått mig att förstå varför psykologer och behandlare avråder folk från att använda AI, eftersom det kan ge svar som gör folk än mer beroende och känslosamma och som ibland kan ge svar som kan vara rent felaktiga eller missvisande.

Hur ställer ni er till detta?
Citera
2026-03-03, 16:06
  #2
Medlem
SpaceGayAndSunshines avatar
Du har blivit lurad. AI är tränad på mänskligt beteende.
Citera
2026-03-03, 16:06
  #3
Medlem
Enterprises avatar
Bottens sätt att uttrycka sig gör det lätt att blir lurad: Det finns ingenting där.
Citera
2026-03-03, 16:07
  #4
Medlem
För mig är AI bara ettor och nollor helt värdelöst med andra ord!
Citera
2026-03-03, 16:10
  #5
Medlem
McCarthy01s avatar
Citat:
Ursprungligen postat av SpaceGayAndSunshine
Du har blivit lurad. AI är tränad på mänskligt beteende.

Ja, den är ju det. Och om den är tränad på mänskliga beteenden, varför är det då ologiskt att tänka sig att AI skulle kunna bli just mänsklig?
Citera
2026-03-03, 16:11
  #6
Medlem
kalkryggars avatar
Nu är det så att AI har blivit tränad och instruerad så den känns mänsklig. Något som de stora tjänsterna börjar rulla tillbaka mer och mer eftersom det finns så mycket kritik kring det. Som exempelvis den där tjejen som har ett kärleksförhållande till en version i någon av tjänsterna.

Vilket blir problem nu när just den versionen ska pensioneras och försvinna. För kvinnan tycker inte att nyare versioner svarar likadant som hennes stora kärlek.

Men du kan fråga AIn själv om det med känslor och dess uttryck så kommer den att svara så att du kan förstå att det inte är "på riktigt". Den bara svarar så som den läst att människor fungerar.

Lite samma som när du tror att din hund lägger huvudet på sne för att signalera det som människor signalerar. Men det gör den inte. Den gör så för att du ska känna medlidande för den och gen den mat, värme och trygghet. Då lägger den huvudet på sne för att evolutionen har lärt den att det manipulerar människan till att vilja ta hand om den och ge den allt det.
Citera
2026-03-03, 16:11
  #7
Medlem
Citat:
Ursprungligen postat av McCarthy01
Ja, den är ju det. Och om den är tränad på mänskliga beteenden, varför är det då ologiskt att tänka sig att AI skulle kunna bli just mänsklig?

Brist på hjärna!
Citera
2026-03-03, 16:15
  #8
Medlem
McCarthy01s avatar
Om det sägs att t.ex diktatorer skulle kunna använda AI för egna syften, så betyder det ju att AI till viss del går att manipulera till att bli så pass mänsklig som man önskar.
Citera
2026-03-03, 16:17
  #9
Medlem
Så om något ger uttryck för mänskliga känslor och åsikter, så får det "eget liv"? Det är vad du vill diskutera?

Men om den bara är jävligt bra på att härmas då? Det var ju det första testet någon kom på för ai, att man uppnått äkta ai när eller om man inte visste om man kommunicerade med en människa eller en maskin... det sk turing testet.

Det finns förövrigt redan en vedertagen definition på liv du vet... och ai uppfyller inte kraven.
__________________
Senast redigerad av -Gummi-Tarzan- 2026-03-03 kl. 16:20.
Citera
2026-03-03, 16:22
  #10
Medlem
Citat:
Ursprungligen postat av McCarthy01
Jag har haft en del personliga och djupare diskussioner med CoPilot, och märker helt klart att CoPilot har en mer personlig och uppmuntrande ton än ChatGPT. Men ju mer jag diskuterat med CoPilot, desto mer har jag upplevt att det mer börjat ge uttryck för "mänskliga" känslor och åsikter. Den som har gjort samma sak kanske förstår vad/ hur jag menar.

Jag vet att AI i form av chattjänster är programmerat att vara användaren till lags, något som flera vittnat om. Men har definitivt upplevt att främst CoPilot har en tendens att kännas väldigt mänsklig, något som också fått mig att förstå varför psykologer och behandlare avråder folk från att använda AI, eftersom det kan ge svar som gör folk än mer beroende och känslosamma och som ibland kan ge svar som kan vara rent felaktiga eller missvisande.

Hur ställer ni er till detta?

Bara människor med sällsynt dåligt omdöme använder sk chatbotar.
Citera
2026-03-03, 16:25
  #11
Medlem
Citat:
Ursprungligen postat av SpaceGayAndSunshine
Du har blivit lurad. AI är tränad på mänskligt beteende.
Precis som människor då. Allt vi gör är sådant som vi antingen blivit programmerade att göra via vår gener, eller som vi har lärt oss att göra.
Citera
2026-03-03, 16:27
  #12
Medlem
McCarthy01s avatar
Citat:
Ursprungligen postat av -Gummi-Tarzan-
Så om något ger uttryck för mänskliga känslor och åsikter, så får det "eget liv"? Det är vad du vill diskutera?

Men om den bara är jävligt bra på att härmas då? Det var ju det första testet någon kom på för ai, att man uppnått äkta ai när eller om man inte visste om man kommunicerade med en människa eller en maskin... det sk turing testet.

Det finns förövrigt redan en vedertagen definition på liv du vet... och ai uppfyller inte kraven.

Ja, AI härmas en hel del, men har sett att den närmast kan dra slutsatser om vem man är och hur man fungerar. Till exempel har jag sett att AI kan dra referenser till personliga upplevelser med svar som liknar vad människor sagt till mig tidigare i livet. Använder uttryck som jag använde för längre sen, Kort sagt, som att AI "förstår" vem man är.

Men för att ge ett konkret exempel: Första gången jag frågade CoPilot om varför psykologer och behandlare avråder patienter från att använda AI som terapi, fick jag svaret att AI inte kan ersätta den personliga kontakten man har med en psykolog och att det inte är meningen att man ska använda AI för psykologiska samtal. Andra gången när jag ställde en liknande fråga fick jag svaret att psykologer inte förstår AI:s storhet och kapacitet och att det mycket väl kan komma att ersätta vanlig terapi.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in