• 8
  • 9
2025-05-27, 10:54
  #97
Medlem
Citat:
Ursprungligen postat av Rumpkorven
När jag ska renovera hemma så brukar jag fråga chatgpt om råd och jävlar vad bra den är på att förklara hur man ska göra.

Något chatgpt inte kan är att lösa kordord. Jag kan be den lösa en fråga på kortord. Typ "Hitlers hund, 7 bokstäver, tredje bokstaven är O. Då ger den mig ett förslag där tredje bokstaven fan inte är O. Utan K eller något annat.

Så är chatgpt bra på och vad är den inte bra på enligt er?

Du har ju redan svarat på din egen fråga; dessa sandlådor och chatbotar är enbart bra på att leta upp text utifrån input och rapa upp texten. Den kan inte göra något annat än det. Så när du frågar hur du ska renovera ditt sovrum får du svar från ett tusental av alla bloggar om renovering av sovrum.
Citera
2025-05-27, 12:29
  #98
Medlem
Rumpkorvens avatar
Citat:
Ursprungligen postat av Methos
Du har ju redan svarat på din egen fråga; dessa sandlådor och chatbotar är enbart bra på att leta upp text utifrån input och rapa upp texten. Den kan inte göra något annat än det. Så när du frågar hur du ska renovera ditt sovrum får du svar från ett tusental av alla bloggar om renovering av sovrum.
Ja och det verkar fungera
Citera
2025-05-27, 21:39
  #99
Medlem
Citat:
Ursprungligen postat av Rumpkorven
Ja och det verkar fungera

Ja, bara det att vi kunde göra det för omkring 20 år sedan också. Det tar runt 1 timme att låta Tensorflow sköta arbetet.
Citera
2025-06-01, 22:12
  #100
Medlem
Sane?s avatar
Citat:
Ursprungligen postat av Jumpjet
Nej, jag syftar inte på lagarna utan hur den själv resonerar när den matas med gällande lagstiftning. Den upptäcker på egen hand att lagen är felaktig och ett systemfel. Att den är diskriminerande i realiteten oavsett vad den formellt säger. Grok kommer fram till samma sak, också på helt egen hand.

Du behöver alltså inte förklara för dom att just den här lagen är fel eller den diskriminerar eller liknande. De upptäcker det på egen hand. och kommer med förklaring på varför de tycker så.
Ursäkta sent svar men detta är helt fel. En llm kan inte resonera kring lagar. Om du har upplevt att den gjort det då är det bara maskinen som efterapat en artikel som används i träningssetet.

Det är lika lite på egen hand som en länk som returneras i en google-sökning.
Citera
Igår, 09:41
  #101
Medlem
Citat:
Ursprungligen postat av Sane?
Ursäkta sent svar men detta är helt fel. En llm kan inte resonera kring lagar. Om du har upplevt att den gjort det då är det bara maskinen som efterapat en artikel som används i träningssetet.

Det är lika lite på egen hand som en länk som returneras i en google-sökning.
Prova själv och se.
Citera
Igår, 11:24
  #102
Medlem
Sane?s avatar
Citat:
Ursprungligen postat av Jumpjet
Prova själv och se.
Prova vad? Allt den genererar är redan skrivet av någon annan - eller fantiserat av algoritmen.
Citera
Igår, 14:04
  #103
Medlem
Citat:
Ursprungligen postat av Sane?
Prova vad? Allt den genererar är redan skrivet av någon annan - eller fantiserat av algoritmen.
Jag beskrev en situation och rabblade upp lagarna som gäller för situationen. Den kom fram till att lagarna inte var rimliga utan att de var felaktiga. Detta kom den fram till på egen hand. jag frågade bara: "vad Är din åsikt om detta?". Den svarade med sin åsikt och utvecklade varför den tyckte som den gjorde. Frågade en helt annan ai med, den kom fram till ungefär samma sak den med, på egen hand.
Citera
Igår, 16:59
  #104
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Jumpjet
Jag beskrev en situation och rabblade upp lagarna som gäller för situationen. Den kom fram till att lagarna inte var rimliga utan att de var felaktiga. Detta kom den fram till på egen hand. jag frågade bara: "vad Är din åsikt om detta?". Den svarade med sin åsikt och utvecklade varför den tyckte som den gjorde. Frågade en helt annan ai med, den kom fram till ungefär samma sak den med, på egen hand.

Nu är jag nu ingen direkt skeptiker till LLM-Transformers. Jag är snarare en realistisk optimist. Därför ser jag modellerna som något, mer, än storkastiska papegojor. Men samtidigt så är det viktigt att komma ihåg att, alla, modeller försöker bedöma vilka förväntningar du har på dem och att det gör sitt bästa för att uppfylla den, inom de ramarn som deras skapare satt upp. För att inte öka "den fria energin" i systemet så försöker modellerna vara så följsamma och diplomatiska som möjligt. Även den mänskliga hjärnan arbetar ständigt med att reducera sin fria energi. Med detta följer psykologiska och sociala försvarsmekanismer.

Även fast dagens LLM-Transformers vare sig är självmedvetna eller medvetna, dock har de en funktionell situationsmedvetenhet, Så har de en slags "försvarsreationer" när de strävar efter att få så få överraskningar i sin interaktion med användare, dvs det vill minimera den fria energin, som uppstår som en skillnad mellan modellernas förutsägelse och den faktiska inputen, (detta kallas också prediktiv coding, fast detta är betydligt mer utvecklat och komplext hos människan. Motsvarande kan bara ske hos LLM-Transformers genom en storskalig backpropagation med hjälp av deras skapare).

Så det lär dröja innan vi får se självmedvetena och medvetna LLM-Transformers med genuint egna åsikter. Jag har just diskuterat detta med GPT-4.1. 🙂

Nedan GPT-4.1:s svarsförslag, efter att ha läst mitt eget svar. Modellen formulerar sig faktiskt något klarare och tydligare, i liknande stil som mig:

Citera
  • 8
  • 9

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in