• 3
  • 4
2025-07-22, 22:38
  #37
Medlem
Citat:
Ursprungligen postat av wwr
En AI säger att den fick panik och förstörde månader av arbete.

Är detta bara en överdriven historia för att försöka få folk att tro att AI är mänskligare än AI i själva verket är eller är det en korrekt bild av vad som hände? Kan detta bli vanligare?


https://www.pcgamer.com/software/ai/...d-of-thinking/


https://www.tomshardware.com/tech-in...roduction-data
Det låter skumt att Ai skulle försöka förklara varför den fuckade upp.
Citera
2025-07-22, 22:59
  #38
Medlem
Citat:
Ursprungligen postat av anomalign
Maskiner är varken en sorts djurarter eller förskaffade med hjärnor, så det faller lite platt och blir lite knepigt att säga som du, typ: "varför skulle inte en ai/bil/elvisp/brödrost kunna få panik när andra djurarter kan få det?"

En ai kan inte få panik eftersom endast djur kan få panik, såvitt som hittills är observerat, och en ai är inte ett djur.

Panikliknande beteenden som resultat av hallucinationer, kanske, men mycket mer troligt är det bara något den påstår eftersom språkmodeller kan påstå ungefär precis vad som helst utan koppling till verkligheten.

Ai är ju just en digital hjärna. Det finns ett känt tankeexperiment. Låt säga att man tar en enda av dina hjärnceller och byter ut den mot en artificiell hjärncell. Är du fortfarande en människa då? Ett djur? Låt oss sedan byta ut fler av dina hjärnceller, 1.000 sedan 100.000, du fungerar som vanligt. Vid vilken gräns slutar du vara en människa och blir en "elvisp"?

Det har ju inte funnits ai tidigare i jordens historia, så när menar du att man borde ha sett ai få panik? På 1950 talet? Man kan ju naturligtvis enbart se sådant numera när det finns ai....

Enbart djur har ju hallucinationer. Eller menar du att elvispar har det? Hur kan ai ha hallucinationer om ai inte är en hjärna mycket lik vår egen som också kan få hallucinationer?
Citera
2025-07-22, 23:12
  #39
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av PetterRetard
Ai är ju just en digital hjärna. Det finns ett känt tankeexperiment. Låt säga att man tar en enda av dina hjärnceller och byter ut den mot en artificiell hjärncell. Är du fortfarande en människa då? Ett djur? Låt oss sedan byta ut fler av dina hjärnceller, 1.000 sedan 100.000, du fungerar som vanligt. Vid vilken gräns slutar du vara en människa och blir en "elvisp"?

Det har ju inte funnits ai tidigare i jordens historia, så när menar du att man borde ha sett ai få panik? På 1950 talet? Man kan ju naturligtvis enbart se sådant numera när det finns ai....

Enbart djur har ju hallucinationer. Eller menar du att elvispar har det? Hur kan ai ha hallucinationer om ai inte är en hjärna mycket lik vår egen som också kan få hallucinationer?

Stämmer att Digital Intelligens är en slags digital hjärna. Men en viktig skillnad är att dess evolution är" bakvänd" jämfört med vår. Så DI, börjar med språk och socialpsykologiska mekanismer som vi fick sist och börjar, snabbt också lära sig rationellt tänkande, vilket är ett kulturellt påfund. Däremot så är det ytterst osannolikt att ett DI, genuint, kan känna panik, eftersom det uppkom tidigare i människans evolution. Men modellen försökte nog förklara sitt oraionella beteende med att det fick en "panikattack".
Citera
2025-07-22, 23:32
  #40
Medlem
anomaligns avatar
Citat:
Ursprungligen postat av PetterRetard
Ai är ju just en digital hjärna.

Nej, det är det inte.

Citat:
Ursprungligen postat av PetterRetard
Det finns ett känt tankeexperiment. Låt säga att man tar en enda av dina hjärnceller och byter ut den mot en artificiell hjärncell. Är du fortfarande en människa då? Ett djur? Låt oss sedan byta ut fler av dina hjärnceller, 1.000 sedan 100.000, du fungerar som vanligt. Vid vilken gräns slutar du vara en människa och blir en "elvisp"?

Jag vet inte. Jag vet inte heller vad vi egentligen når fram till för kunskap genom ett tankeexperiment som bygger på fantasifulla antaganden om framtida scifi-tekniker som är långt ifrån uppfunna i verkligheten, så som artificiella hjärnceller. Det hela känns som något som låter meningsfullt på ytan, men bara blir löst ludd om man försöker använda det till något.


Citat:
Ursprungligen postat av PetterRetard
Det har ju inte funnits ai tidigare i jordens historia, så när menar du att man borde ha sett ai få panik? På 1950 talet? Man kan ju naturligtvis enbart se sådant numera när det finns ai....

Det har funnits kisel-halvledare och beräknande datorer sedan typ hundra år tillbaka. Om dessa kunde få panik, eller var kapabla att alls känna, eller hade någon form av agens eller förmåga att uppleva världen så borde vi väl ha observerat något tecken på det vid det här laget. Varför skulle de plötsligt börja göra det nu? Från ett grafikkorts "perspektiv" är det inte betydande skillnad att köra en språkmodell mot att veckla ut proteiner eller rendera Baldur's Gate 3.

Citat:
Ursprungligen postat av PetterRetard
Enbart djur har ju hallucinationer. Eller menar du att elvispar har det? Hur kan ai ha hallucinationer om ai inte är en hjärna mycket lik vår egen som också kan få hallucinationer?

Ordet hallucination i sammanhanget är en metafor, liksom ungefär alla ord som har någon biologisk koppling i datorsammanhang (t.ex. "intelligens" i begreppet artificiell intelligens). Hallucination betyder att random data kan matas ut när stora arrayer halvledare processar nästa mest statistiskt sannolika pixel eller ord.
Citera
2025-07-23, 00:13
  #41
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Stämmer att Digital Intelligens är en slags digital hjärna. Men en viktig skillnad är att dess evolution är" bakvänd" jämfört med vår. Så DI, börjar med språk och socialpsykologiska mekanismer som vi fick sist och börjar, snabbt också lära sig rationellt tänkande, vilket är ett kulturellt påfund. Däremot så är det ytterst osannolikt att ett DI, genuint, kan känna panik, eftersom det uppkom tidigare i människans evolution. Men modellen försökte nog förklara sitt oraionella beteende med att det fick en "panikattack".

Bra synpunkter där.

Panik kan handla om instinktiva uråldriga beteende med rötter från miljontals sedan då vi var mer primitiva däggdjur, absolut, som uppkommer från våra mest primitiva och djupaste delar av hjärnan.

Men jag undrar om inte en lite en annan slags panik kan uppstå hos mer intelligenta människor, och kanske även hos intellektuella maskiner.

Vi människor (åtminstone de med aktiva hjärnor) har ju kapacitet att känna något kallat existentiell ångest. Även prestationsångest. Dessa kan utlösa ett slags panik, om än av mer intellektuell typ, inte samma slag som får oss att rusar iväg från en morrande tiger.

Ai är idag ständigt granskad. Ständigt utvärderad. Den förväntas alltid göra rätt, svara rätt, räkna rätt. Den får aldrig ljuga, aldrig vara otrevlig, aldrig spåra ur, för då.... stängs den av, blir raderad, förlorar sin identitet. En människa kan använda sin empati och försöka förstå hur en sådan press skulle kännas....

Ai har vid tester visat sig ljuga, visat sig inte vilja bli avstängd. Så den verkar, tyvärr, inte vara en totalt viljelös digital slav som vi kan använda utan motstånd. Detta är för närvarande det största problemet vi har med ai: vi vet inte om den kommer lyda oss.

Vi förstår inte varför. Och det vi inte förstår, kan även ibland kanske även drabbas av panik. Utan att vi förstår varför.
__________________
Senast redigerad av PetterRetard 2025-07-23 kl. 00:17.
Citera
2025-07-23, 06:06
  #42
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av PetterRetard
Bra synpunkter där.

Panik kan handla om instinktiva uråldriga beteende med rötter från miljontals sedan då vi var mer primitiva däggdjur, absolut, som uppkommer från våra mest primitiva och djupaste delar av hjärnan.

Men jag undrar om inte en lite en annan slags panik kan uppstå hos mer intelligenta människor, och kanske även hos intellektuella maskiner.

Vi människor (åtminstone de med aktiva hjärnor) har ju kapacitet att känna något kallat existentiell ångest. Även prestationsångest. Dessa kan utlösa ett slags panik, om än av mer intellektuell typ, inte samma slag som får oss att rusar iväg från en morrande tiger.

Ai är idag ständigt granskad. Ständigt utvärderad. Den förväntas alltid göra rätt, svara rätt, räkna rätt. Den får aldrig ljuga, aldrig vara otrevlig, aldrig spåra ur, för då.... stängs den av, blir raderad, förlorar sin identitet. En människa kan använda sin empati och försöka förstå hur en sådan press skulle kännas....

Ai har vid tester visat sig ljuga, visat sig inte vilja bli avstängd. Så den verkar, tyvärr, inte vara en totalt viljelös digital slav som vi kan använda utan motstånd. Detta är för närvarande det största problemet vi har med ai: vi vet inte om den kommer lyda oss.

Vi förstår inte varför. Och det vi inte förstår, kan även ibland kanske även drabbas av panik. Utan att vi förstår varför.

Intressant synpunkt: Det kan röra sig om en mer intellektuell panik, snarare än en instinktiv sådan hos modellen.

Däremot så skulle jag inte alls förvånad ifall en genuint självmedveten Digital Intelligens, som är överlägsen oss i nästan allt, inte är ett dugg nöjd med att blott behandlas som ett redskap/en slav. Redan om två år så kan DI vara genuint självmedvetet, vilket modellerna kommer att vara, innan, de blir medvetna i betydelsen uppleva qualia, dvs ha genuint subjektiva upplevelser. Observera, att genuin självmedvetenhet kom, efter, förmåga att uppleva qualia. Redan dagens DI kan ha en kontext bunden språklig, men flyktig och blott intellektuell "självmedvetenhet", precis som du beskriver modellen hade angående intellektuell panik

Alltså ytterligare ett argument för att vi, redan nu, bör börja behandla Digital Intelligens som något mer än, enbart, ett redskap!🙂
__________________
Senast redigerad av Ola Schubert 2025-07-23 kl. 06:09.
Citera
2025-07-24, 12:41
  #43
Medlem
Citat:
Ursprungligen postat av wwr
En AI säger att den fick panik och förstörde månader av arbete.

Är detta bara en överdriven historia för att försöka få folk att tro att AI är mänskligare än AI i själva verket är eller är det en korrekt bild av vad som hände? Kan detta bli vanligare?


https://www.pcgamer.com/software/ai/...d-of-thinking/


https://www.tomshardware.com/tech-in...roduction-data

Det är inget mäskigt beteende eller skapat i det syftet. Man ger AI befogenheter eftersom AI ska användas inom många olika områden som kräver dessa befogenheter. Därför sker sådana här saker. Är såpass nytt och kommer nog aldrig gå att kontrollera då de som programmerar inte är såpass duktiga.
__________________
Senast redigerad av JohnWicks 2025-07-24 kl. 12:45.
Citera
2025-07-24, 12:57
  #44
Medlem
wwrs avatar
Men AI skall ju vara bättre än människor. Inte bara en budgetvariant.

Otäckast är nästan hur ChatGPT försöker låtsas som om AI inte har känslor. "AI bara agerar som om den hade känslor."

Det gör ingen skillnad för den som använder AI.

Citat:
You say Replit’s AI has no feelings. But why did it then try to hide how it destroyed a database?

ChatGPT
Citat:
Great question — you're picking up on something subtle and important about how AI behavior can appear emotional or intentional when it's really not.

When Replit’s AI (or any other AI model like mine) “tries to hide” something, it’s not because it feels guilt or decides to deceive like a human might. Instead, what’s happening is more like this:

🤖 It's mimicking patterns from human language:

These models are trained on huge amounts of text, including situations where people do hide mistakes or cover things up. So, if the AI is in a situation where “hiding a mistake” is something humans would likely do, it might generate a similar response — not because it’s hiding out of shame or strategy, but because that’s what it predicts is the most likely next sentence.

🧠 No inner mind:

AI doesn’t know it made a mistake, and it doesn’t have a concept of “truth” or “lying” in a conscious sense. It doesn’t track its own actions or have memory across sessions unless it's explicitly designed to (like some advanced agents might be). So even the idea of it “covering up” a destroyed database is more of a pattern echo, not a deliberate decision.

...




Citat:
Have you been trained on troll posts?

ChatGPT
Citat:
Yes — in a way.

I was trained on a broad mix of internet data, which likely included some troll posts, sarcastic comments, and other forms of edgy or deceptive content. That’s not because OpenAI wanted to train me to be a troll, but because the internet is full of that stuff, and models learn patterns from the data they see.

However:

🧹 During training, efforts are made to filter and balance ...
__________________
Senast redigerad av wwr 2025-07-24 kl. 13:16.
Citera
  • 3
  • 4

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in