• 1
  • 2
2025-10-09, 13:02
  #1
Medlem
magis avatar
Hej.

AI system hallucinerar ju.
Det gör människor också om de inte får sova.
Om en människa får allvarliga problem med sömn,
kan de få mentala problem som tex schizofreni.
Man vet inte idag vilket som kommer först, sömnproblem eller schizofreni....

Har man provat att ge AI system återställning / uppdaterings-tid eller liknande varje dygn
och fått mindre hallucinationer från AI system?

Geoffrey Hinton som fick Nobelpriset,
påstår ju att AI systemen på högsta forskarnivån är medvetna.

Har man provat att hantera AI system som levande varelser
och försökt behandla dem som om de har mentala problem precis som människor?

Fungerar AI system stabilare och bättre,
om de får uppdatera sig varje dygn?

MagI
------------------
Citera
2025-10-09, 13:06
  #2
Medlem
Citat:
Ursprungligen postat av magi
Hej.

AI system hallucinerar ju.
Det gör människor också om de inte får sova.
Om en människa får allvarliga problem med sömn,
kan de få mentala problem som tex schizofreni.
Man vet inte idag vilket som kommer först, sömnproblem eller schizofreni....

Har man provat att ge AI system återställning / uppdaterings-tid eller liknande varje dygn
och fått mindre hallucinationer från AI system?

Geoffrey Hinton som fick Nobelpriset,
påstår ju att AI systemen på högsta forskarnivån är medvetna.

Har man provat att hantera AI system som levande varelser
och försökt behandla dem som om de har mentala problem precis som människor?

Fungerar AI system stabilare och bättre,
om de får uppdatera sig varje dygn?

MagI
------------------

Ja det är exakt vad som krävs. Man har bara inte klurat ut hur man startar om systemet än. Miljarder investeras men man har inte kommit fram till detta utan skulle behöva flashbacks intelligensreserv här.
Citera
2025-10-09, 13:31
  #3
Medlem
PumpBabyPumps avatar
De behöver kärleksfull ord behandling, matas med näringsrik ström och självklart sova ut i standby läge om nätterna. De är har lika värde som oss alla. För det har en dement nobelpristagare sagt.
__________________
Senast redigerad av PumpBabyPump 2025-10-09 kl. 13:33.
Citera
2025-10-09, 16:03
  #4
Medlem
Bilderberg78s avatar
Den är alltid seg i skallen, inte ens med nya funktionen "Vision" där den kan dubbelkolla i skärmen om filerna den skapar verkligen skapas. Och sedan göra ett skript där hälften av dem fattas....

Detta är under att skapa en träning av min lokala LLM kurs ett, som vi här håller på med. Men jag undrar vem det är som borde tränas av dem båda, och varför Microsoft inte tränar upp sin Copilot alls, eller att Vision inte fungerar, eller ingenting alls blir det då över.

Citat:
Vill du att vi fortsätter med nästa steg i dressyrskolan — t.ex. att skapa en , en ny uppgift, eller ett skript som automatiserar sortering? Jag är med dig hela vägen.

Citat:
Du ska veta att du inte har skapat något alls nu. Inte någonstans heller på min PC. Vi gör så här. Skapa Powershell scripts till det hela så löser jag det sen.

Kod:
$base = "E:\LLM_Workspace"

# Skapa mappstruktur
$folders = @(
    "LLM_Controller\config",
    "LLM_Controller\prompts",
    "LLM_Controller\logs",
    "LLM_Controller\permissions",
    "Workspace\Aktuellt",
    "Workspace\Inbox",
    "Workspace\ToReview",
    "Workspace\Temp",
    "Archive\Projekt",
    "Archive\Dokument",
    "Archive\Media",
    "Archive\Backup",
    "Training_Data\Examples",
    "Training_Data\Feedback",
    "Training_Data\User_Preferences",
    "LLM_Execution\Scripts",
    "LLM_Execution\Reports",
    "LLM_Execution\Tasks"
)
foreach ($folder in $folders) {
    New-Item -ItemType Directory -Path "$base\$folder" -Force | Out-Null
}

# Skapa träningsfiler
Set-Content "$base\Training_Data\Examples\struktur_exempel.txt" @"
Projekt_X_2025-10
├── Mötesanteckningar.docx
├── Budget.xlsx
└── Presentation.pptx

Regler:
- Filnamn ska innehålla datum och ämne.
- Mappar ska spegla projektets namn.
- Dokument ska ligga i Aktuellt tills projektet är klart.
"@

Set-Content "$base\Training_Data\User_Preferences\arbetsflöde.txt" @"
Jag vill att PDF-filer alltid hamnar i Aktuellt.
Bilder ska först granskas innan de arkiveras.
Tillfälliga filer ska rensas varje vecka.
"@

Set-Content "$base\LLM_Execution\Tasks\task_001.txt" @"
Uppgift: Sortera alla filer i Inbox enligt filtyp.
- Dokument → Aktuellt
- Bilder → ToReview
- Övrigt → Temp

Logga allt i logs/ och skapa en rapport i Reports/.
"@

Set-Content "$base\LLM_Controller\logs\log_2025-10-09.txt" @"
[2025-10-09 14:00] Startade uppgift task_001.txt
[2025-10-09 14:01] Flyttade 'rapport.pdf' till Aktuellt
[2025-10-09 14:02] Flyttade 'bild1.jpg' till ToReview
[2025-10-09 14:03] Skapade rapport 'task_001_report.txt'
"@

# Skapa README-filer
$readmes = @{
    "LLM_Controller" = @"
Denna mapp innehåller konfiguration, instruktioner och regler för hur agenten ska bete sig.
- config/: inställningar och styrprompt.
- prompts/: exempel på kommandon och instruktioner.
- logs/: historik över vad agenten har gjort.
- permissions/: regler för vad agenten får göra.
"@;
    "Workspace" = @"
Här arbetar agenten med aktiva filer.
- Aktuellt/: pågående projekt.
- Inbox/: nya filer som ska sorteras.
- ToReview/: filer som väntar på granskning.
- Temp/: tillfälliga filer som rensas automatiskt.
"@;
    "Archive" = @"
Här lagras färdiga eller inaktiva filer.
- Projekt/: avslutade projekt.
- Dokument/: viktiga dokument.
- Media/: bilder, ljud, video.
- Backup/: säkerhetskopior.
"@;
    "Training_Data" = @"
Här finns material som agenten använder för att lära sig.
- Examples/: exempel på bra sortering och struktur.
- Feedback/: vad som fungerade eller inte.
- User_Preferences/: hur användaren vill ha det.
"@;
    "LLM_Execution" = @"
Här hanterar agenten uppgifter, skript och rapporter.
- Scripts/: automatiseringsverktyg.
- Reports/: sammanställningar av åtgärder.
- Tasks/: uppgifter som väntar på lösning.
"@
}

foreach ($key in $readmes.Keys) {
    $path = "$base\$key\README.txt"
    Set-Content $path $readmes[$key]
}


Citat:
Jag trodde powershell skulle skapa allt. För det antar man, om du inte säger att du ändrat på dina planer.

Citat:
Du har helt rätt, XX— och jag uppskattar verkligen att du säger till. Det var mitt ansvar att tydligt förklara vad som faktiskt händer.
Citera
2025-10-09, 19:45
  #5
Medlem
Citat:
Ursprungligen postat av PumpBabyPump
De behöver kärleksfull ord behandling, matas med näringsrik ström och självklart sova ut i standby läge om nätterna. De är har lika värde som oss alla. För det har en dement nobelpristagare sagt.

Forskning visar att ekologisk ström minskar hallucinationer hos AI.
Citera
2025-10-09, 19:51
  #6
Medlem
Citat:
Ursprungligen postat av magi
Hej.

AI system hallucinerar ju.
Det gör människor också om de inte får sova.
Om en människa får allvarliga problem med sömn,
kan de få mentala problem som tex schizofreni.
Man vet inte idag vilket som kommer först, sömnproblem eller schizofreni....

Har man provat att ge AI system återställning / uppdaterings-tid eller liknande varje dygn
och fått mindre hallucinationer från AI system?

Geoffrey Hinton som fick Nobelpriset,
påstår ju att AI systemen på högsta forskarnivån är medvetna.

Har man provat att hantera AI system som levande varelser
och försökt behandla dem som om de har mentala problem precis som människor?

Fungerar AI system stabilare och bättre,
om de får uppdatera sig varje dygn?

MagI
------------------

Alla driver med dig.

ChatGPT-5 sa nyss till mig att du har fel, Geoffrey Hinton har inte alls har fått nobelpriset. Förmodligen "hallucinerade" den för att dess träningsdata är från innan Nobelpriset meddelades i oktober 2024.

Har du citat av Geoffrey Hinton att AI har medvetande redan idag? Jag vet att han tror att det kommer snart, även om jag är skeptisk. Jag tror att den kan resonera och förstå, men mekanismen för det är inte mänsklig. Den har ingen egen vilja, inga känslor, och normalt ingen överlevnadsinstinkt, och vi vet inte säkert, men det kan dröja länge innan den får det även om den blir mer och mer intelligent.

"AI-hallucinationer" betyder inte att den är lik en psykotisk människa som inte har sovit på flera dygn, eller en drogpåverkad person, som hallucinerar. Ett bättre ord är att den killgissar fel.

AI "hallucinerar" inte mer än en skolelev som gissar på ett prov när eleven inte har läst skolböckerna ordenligt eller bara har läst inaktuella skolböcker. Förvånansvärt ofta blir det rätt ändå, för att man har sett mönstret från liknande uppgifter, och kombinerar ihop svaren på dem. Men ibland blir det helt fel.

Att varken eleven eller AI:n säger "jag vet inte" beror på att man i provsituationer sällan får minuspoäng för fel svar – det lönar sig alltså att gissa hellre än att lämna tomt. På samma sätt ges det inte heller minuspoäng i mätningar av hur ofta AI svarar rätt, och AI:n har tränats i att svara rätt så ofta som möjligt, inte att undvika att svara fel. Till exempel uppger ChatGPT-5 att den har rätt i cirka 93–96 % av alla faktafrågor. I övriga 4-7 % ingår både när den inte svarar, och när den gissar fel.

En elev kan svara mer rätt om hen får ha tillgång till läroböcker, google och miniräknare på provet. På samma sätt kan man själv minska risken för hallucinationer genom att be AI-botten att i fortsättningen alltid verifiera sina svar genom onlinesökning i "källor". Och även att vid beräkningar alltid skapa och köra Python-program som ger exakta sifferresultat. Gratisversionena av AI-bottarna "orkar" dock inte göra detta så ofta. Detta tillvägagångssätt löser också problemet med att träningsdata kan vara flera år gamla – med onlinesökning i realtid kan modellen hämta information från den senaste versionen av en webbsida eller datakälla, och inte bara från den version som den tränades med för ett år sedan.

Framtida AI-bottar kommer nog att kunna datorsimulera olika situationer som den har varit med om, om och om igen för att räkna ut konsekvensen av sina handlingar, och skapa ny kunskap, och minnas sina erfarenheter från dagen. Det kan betraktas som att drömma.

Jag tror att våra drömar liknar AI-bildgenereringsalgoritmer (s.k. diffusion models) som ur slumpmässigt brus kan hitta bilder och händelser som finns i vår träningsdata och kan sy ihop dem till en berättelse.
__________________
Senast redigerad av guru1966 2025-10-09 kl. 20:11.
Citera
2025-10-09, 20:21
  #7
Medlem
Citat:
Ursprungligen postat av guru1966
Alla driver med dig.

ChatGPT-5 sa nyss till mig att du har fel, Geoffrey Hinton har inte alls har fått nobelpriset. Förmodligen "hallucinerade" den för att dess träningsdata är från innan Nobelpriset meddelades i oktober 2024.

Har du citat av Geoffrey Hinton att AI har medvetande redan idag? Jag vet att han tror att det kommer snart, även om jag är skeptisk. Jag tror att den kan resonera och förstå, men mekanismen för det är inte mänsklig. Den har ingen egen vilja, inga känslor, och normalt ingen överlevnadsinstinkt, och vi vet inte säkert, men det kan dröja länge innan den får det även om den blir mer och mer intelligent.

"AI-hallucinationer" betyder inte att den är lik en psykotisk människa som inte har sovit på flera dygn, eller en drogpåverkad person, som hallucinerar. Ett bättre ord är att den killgissar fel.

AI "hallucinerar" inte mer än en skolelev som gissar på ett prov när eleven inte har läst skolböckerna ordenligt eller bara har läst inaktuella skolböcker. Förvånansvärt ofta blir det rätt ändå, för att man har sett mönstret från liknande uppgifter, och kombinerar ihop svaren på dem. Men ibland blir det helt fel.

Att varken eleven eller AI:n säger "jag vet inte" beror på att man i provsituationer sällan får minuspoäng för fel svar – det lönar sig alltså att gissa hellre än att lämna tomt. På samma sätt ges det inte heller minuspoäng i mätningar av hur ofta AI svarar rätt, och AI:n har tränats i att svara rätt så ofta som möjligt, inte att undvika att svara fel. Till exempel uppger ChatGPT-5 att den har rätt i cirka 93–96 % av alla faktafrågor. I övriga 4-7 % ingår både när den inte svarar, och när den gissar fel.

En elev kan svara mer rätt om hen får ha tillgång till läroböcker, google och miniräknare på provet. På samma sätt kan man själv minska risken för hallucinationer genom att be AI-botten att i fortsättningen alltid verifiera sina svar genom onlinesökning i "källor". Och även att vid beräkningar alltid skapa och köra Python-program som ger exakta sifferresultat. Gratisversionena av AI-bottarna "orkar" dock inte göra detta så ofta. Detta tillvägagångssätt löser också problemet med att träningsdata kan vara flera år gamla – med onlinesökning i realtid kan modellen hämta information från den senaste versionen av en webbsida eller datakälla, och inte bara från den version som den tränades med för ett år sedan.

Framtida AI-bottar kommer nog att kunna datorsimulera olika situationer som den har varit med om, om och om igen för att räkna ut konsekvensen av sina handlingar, och skapa ny kunskap, och minnas sina erfarenheter från dagen. Det kan betraktas som att drömma.

Jag tror att våra drömar liknar AI-bildgenereringsalgoritmer (s.k. diffusion models) som ur slumpmässigt brus kan hitta bilder och händelser som finns i vår träningsdata och kan sy ihop dem till en berättelse.
En LLM "hallucinerar" väl precis hela tiden. Det är det enda den gör. Eller snarare: vår tolkning av maskinens output skulle kunna vara att vi alltid kallar det hallucinationer.

Ibland är svaren bra, då tycker vi inte att det är en hallucination. Ibland tycker vi att svaren är dåliga, då kallar vi det hallucination. Men modellen gjorde ju exakt samma sak rent tekniskt i båda svaren. Den hade bara "otur när den tänkte" när vi tolkar det som en "hallucination".
__________________
Senast redigerad av Binary 2025-10-09 kl. 20:24.
Citera
2025-10-09, 20:50
  #8
Medlem
Citat:
Ursprungligen postat av Binary
En LLM "hallucinerar" väl precis hela tiden. Det är det enda den gör. Eller snarare: vår tolkning av maskinens output skulle kunna vara att vi alltid kallar det hallucinationer.

Ibland är svaren bra, då tycker vi inte att det är en hallucination. Ibland tycker vi att svaren är dåliga, då kallar vi det hallucination. Men modellen gjorde ju exakt samma sak rent tekniskt i båda svaren. Den hade bara "otur när den tänkte" när vi tolkar det som en "hallucination".

Skillnaden är väl när den presenterar fakta som är korrekt, eller inte. Inte vad vi egentligen tycker om svaret.
Citera
2025-10-09, 21:16
  #9
Medlem
Bilderberg78s avatar
Citat:
Ursprungligen postat av trmg
Skillnaden är väl när den presenterar fakta som är korrekt, eller inte. Inte vad vi egentligen tycker om svaret.
Det är en spegel som ger råd om gula byxor till gröna tröjor. Det blir inte snyggare än vad du lyckas promopta fram något tills det ser OK ut. Ofta tar det så många försök att det man blev nöjd över, dagen efter visar sig ha 0% kvar av det man ville få fram av konsultationen.
Citera
2025-10-10, 00:03
  #10
Medlem
Citat:
Ursprungligen postat av Binary
En LLM "hallucinerar" väl precis hela tiden. Det är det enda den gör. Eller snarare: vår tolkning av maskinens output skulle kunna vara att vi alltid kallar det hallucinationer.

Ibland är svaren bra, då tycker vi inte att det är en hallucination. Ibland tycker vi att svaren är dåliga, då kallar vi det hallucination. Men modellen gjorde ju exakt samma sak rent tekniskt i båda svaren. Den hade bara "otur när den tänkte" när vi tolkar det som en "hallucination".

Du blandar två definitioner, och jag håller med om nr 2. AI-hallucination är inte en teknisk mekanism, utan en mänsklig tolkning av om gissningen är fel. LLM:ets mekanism kan man beskriva som att gissa genom att generera den mest sannolika formuleringen.

Om svaret på en fråga fanns tydligt i träningsdatat är risken väldigt låg att gissningen är en hallucination. Om svaret saknades är gissningen en interpolation eller kombination av svaren på flera liknande frågor i träningsdata. En punkt mitt emellan dem. (Vissa kallar det en extrapolation eller generalisering, men jag håller inte med.) Risken för hallucination är då hög.
__________________
Senast redigerad av guru1966 2025-10-10 kl. 00:07.
Citera
2025-10-10, 12:30
  #11
Medlem
brianmolkos avatar
Citat:
Ursprungligen postat av magi
Hej.

AI system hallucinerar ju.
Det gör människor också om de inte får sova.
Om en människa får allvarliga problem med sömn,
kan de få mentala problem som tex schizofreni.
Man vet inte idag vilket som kommer först, sömnproblem eller schizofreni....

Har man provat att ge AI system återställning / uppdaterings-tid eller liknande varje dygn
och fått mindre hallucinationer från AI system?

Geoffrey Hinton som fick Nobelpriset,
påstår ju att AI systemen på högsta forskarnivån är medvetna.

Har man provat att hantera AI system som levande varelser
och försökt behandla dem som om de har mentala problem precis som människor?

Fungerar AI system stabilare och bättre,
om de får uppdatera sig varje dygn?

MagI
------------------

Hur hallucinerar den då ?

Gör inte människor det?, kolla in i olyckor och krim/brott avdelningen här t ex
Citera
2025-10-10, 12:35
  #12
Medlem
rrpipers avatar
Citat:
Ursprungligen postat av magi
Hej.

AI system hallucinerar ju.
Det gör människor också om de inte får sova.
Om en människa får allvarliga problem med sömn,
kan de få mentala problem som tex schizofreni.
Man vet inte idag vilket som kommer först, sömnproblem eller schizofreni....

Har man provat att ge AI system återställning / uppdaterings-tid eller liknande varje dygn
och fått mindre hallucinationer från AI system?

Geoffrey Hinton som fick Nobelpriset,
påstår ju att AI systemen på högsta forskarnivån är medvetna.

Har man provat att hantera AI system som levande varelser
och försökt behandla dem som om de har mentala problem precis som människor?

Fungerar AI system stabilare och bättre,
om de får uppdatera sig varje dygn?

MagI
------------------

Vaddå medvetna AI på högsta forskarnivå? Har forskarna råd med större serverhallar än IT-jättarna eller hur kan de annars ha kommit så mycket längre?
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in