Flashback bygger pepparkakshus!
  • 1
  • 2
2025-11-10, 00:51
  #13
Medlem
Citat:
Ursprungligen postat av cambozolan
Jag märker att listor är svårt för AI LLM modeller. De flippar hela tiden ut och förslår närliggande saker, följer inte instruktioner, ta bort saker i listan, lägger till ett par st utan att säga något etc.

Sedan följt av otroliga bortförklaringar och lögner men det är en annan historia

Vilken AI modell är bäst för listor där man inte vill att några poster ska försvinna. tex en lista på 50 poster.


EN lista liknar AI-genererad programkod. Här är några råd som liknar de råd man ger för att minska felen vid programmering:

1. Undvik för långa chatsessioner. När konversationen blir längre än modellens kontextfönster (några hundra sidor text) börjar den glömma tidigare information, som om den var dement. Börja då om i en ny chatt och klistra in listan där.

2. I Chatgpt:s betalversion, be den visa listan i canvasen (ett slags fullskärms-text-editor) istället för i chat-tråden. I en canvas gör modellen sök–och–byt–ut-operationer enbart på den text som behöver ändras, och introducerar då färre slumpmässiga fel än om den återskapar hela listan om och om igen vid varje ändring. Men det kan fortfarande ske fel även i en canvas, särskilt om du manuellt ändrat text i canvasen utan att modellen har märkt det.

3. Kontrollera ofta resultet, antingen själv manuellt, eller be modellen validera. T.ex. genom att du anger hur många element det ska vara i listan efter en ändring.

4. Testa att prompta tydligt, t.ex. i stil med "Lägg inte till något element i listan", "ta inte bort något", "ändra inte ordning", "kontrollera att det stämmer med..." eller liknande.

5. Ibland gör den mer rätt om man ger kontreta exempel på hur den ska svara, sitälelt för att enbart försöka förklara hur den ska svara, för att med exemplen kan den verifiera att det blir rätt.

6. Be den visa listan med en hård struktur. T.ex. som en numrerad lista, eller på json-format.

7. Listor med flera hundra textrader bör delas upp i "code chunks" så att den hanterar en chunk i en chatsession.
__________________
Senast redigerad av guru1966 2025-11-10 kl. 00:57.
Citera
2025-11-10, 00:55
  #14
Medlem
Citat:
Ursprungligen postat av slipperyslope

De flesta resonerade modellerna idag tillsammans med agentisk processing har absolut noll problem att komma ihåg och hantera listor av den typ du beskriver.. kör bara de senaste modellerna med riktiga API:er så ska du se att det funkar. Problemet är ett klassisk SBS problem låter det som snarare än ett LLM problem (om du inte kör nån jävla gammal ChatGPT 2.5 eller nåt annat mök.

Det var ju lite annan femma nu då. Nyss var det Alpha Fold som var lösningen. Nu räcker det att välja rätt GUI / Tjänst / API ? till valfri top LLM ? va kul.
__________________
Senast redigerad av cambozolan 2025-11-10 kl. 00:57.
Citera
2025-11-10, 00:57
  #15
Medlem
Citat:
Ursprungligen postat av slipperyslope

De flesta resonerade modellerna idag tillsammans med agentisk processing har absolut noll problem att komma ihåg och hantera listor av den typ du beskriver.. kör bara de senaste modellerna med riktiga API:er så ska du se att det funkar. Problemet är ett klassisk SBS problem låter det som snarare än ett LLM problem (om du inte kör nån jävla gammal ChatGPT 2.5 eller nåt annat mök.

Jaha ja, vilken LLM ska jag ta då ?
Citera
2025-11-10, 01:02
  #16
Medlem
Citat:
Ursprungligen postat av guru1966
EN lista liknar AI-genererad programkod. Här är några råd som liknar de råd man ger för att minska felen vid programmering:

1. Undvik för långa chatsessioner. När konversationen blir längre än modellens kontextfönster (några hundra sidor text) börjar den glömma tidigare information, som om den var dement. Börja då om i en ny chatt och klistra in listan där.

2. I Chatgpt:s betalversion, be den visa listan i canvasen (ett slags fullskärms-text-editor) istället för i chat-tråden. I en canvas gör modellen sök–och–byt–ut-operationer enbart på den text som behöver ändras, och introducerar då färre slumpmässiga fel än om den återskapar hela listan om och om igen vid varje ändring. Men det kan fortfarande ske fel även i en canvas, särskilt om du manuellt ändrat text i canvasen utan att modellen har märkt det.

3. Kontrollera ofta resultet, antingen själv manuellt, eller be modellen validera. T.ex. genom att du anger hur många element det ska vara i listan efter en ändring.

4. Testa att prompta tydligt, t.ex. i stil med "Lägg inte till något element i listan", "ta inte bort något", "ändra inte ordning", "kontrollera att det stämmer med..." eller liknande.

5. Ibland gör den mer rätt om man ger kontreta exempel på hur den ska svara, sitälelt för att enbart försöka förklara hur den ska svara, för att med exemplen kan den verifiera att det blir rätt.

6. Be den visa listan med en hård struktur. T.ex. som en numrerad lista, eller på json-format.

7. Listor med flera hundra textrader bör delas upp i "code chunks" så att den hanterar en chunk i en chatsession.


1. Undvik för långa chatsessioner. När konversationen blir längre än modellens kontextfönster (några hundra sidor text) börjar den glömma tidigare information, som om den var dement. Börja då om i en ny chatt och klistra in listan där.
Jag känner till det och gränsen går ofta vid runt 1 miljon tecken/tokens.

2. I Chatgpt:s betalversion, be den visa listan i canvasen (ett slags fullskärms-text-editor) istället för i chat-tråden. I en canvas gör modellen sök–och–byt–ut-operationer enbart på den text som behöver ändras, och introducerar då färre slumpmässiga fel än om den återskapar hela listan om och om igen vid varje ändring. Men det kan fortfarande ske fel även i en canvas, särskilt om du manuellt ändrat text i canvasen utan att modellen har märkt det.
Aha så i canvas slipper man att det söks på nätet och generaliseras och div schabloner tas fram som inte har nånting med nånting att göra ?

3. Kontrollera ofta resultet, antingen själv manuellt, eller be modellen validera. T.ex. genom att du anger hur många element det ska vara i listan efter en ändring.
ja när jag gör listor ber jag alltid om att räkna posterna i listan och man får hålla koll. Synd det men kanske man slipper det 2035 ?

4. Testa att prompta tydligt, t.ex. i stil med "Lägg inte till något element i listan", "ta inte bort något", "ändra inte ordning", "kontrollera att det stämmer med..." eller liknande.

Bra idé man får kanske ha en "list-prompt" där tom sådana självklara saker pekas ut som att hitta inte på några egna saker på kul utan håll dig till listans poster som vi kommer överens om .

5. Ibland gör den mer rätt om man ger kontreta exempel på hur den ska svara, sitälelt för att enbart försöka förklara hur den ska svara, för att med exemplen kan den verifiera att det blir rätt.

intressant...

6. Be den visa listan med en hård struktur. T.ex. som en numrerad lista, eller på json-format.
det ska jag testa !

7. Listor med flera hundra textrader bör delas upp i "code chunks" så att den hanterar en chunk i en chatsession.
ja över 100-150 blir det alltid shaky. inte testat just code chunks tänket dock
Citera
2025-11-10, 01:46
  #17
Medlem
Citat:
Ursprungligen postat av cambozolan
1. Undvik för långa chatsessioner. När konversationen blir längre än modellens kontextfönster (några hundra sidor text) börjar den glömma tidigare information, som om den var dement. Börja då om i en ny chatt och klistra in listan där.
Jag känner till det och gränsen går ofta vid runt 1 miljon tecken/tokens.

2. I Chatgpt:s betalversion, be den visa listan i canvasen (ett slags fullskärms-text-editor) istället för i chat-tråden. I en canvas gör modellen sök–och–byt–ut-operationer enbart på den text som behöver ändras, och introducerar då färre slumpmässiga fel än om den återskapar hela listan om och om igen vid varje ändring. Men det kan fortfarande ske fel även i en canvas, särskilt om du manuellt ändrat text i canvasen utan att modellen har märkt det.
Aha så i canvas slipper man att det söks på nätet och generaliseras och div schabloner tas fram som inte har nånting med nånting att göra ?

3. Kontrollera ofta resultet, antingen själv manuellt, eller be modellen validera. T.ex. genom att du anger hur många element det ska vara i listan efter en ändring.
ja när jag gör listor ber jag alltid om att räkna posterna i listan och man får hålla koll. Synd det men kanske man slipper det 2035 ?

4. Testa att prompta tydligt, t.ex. i stil med "Lägg inte till något element i listan", "ta inte bort något", "ändra inte ordning", "kontrollera att det stämmer med..." eller liknande.

Bra idé man får kanske ha en "list-prompt" där tom sådana självklara saker pekas ut som att hitta inte på några egna saker på kul utan håll dig till listans poster som vi kommer överens om .

5. Ibland gör den mer rätt om man ger kontreta exempel på hur den ska svara, sitälelt för att enbart försöka förklara hur den ska svara, för att med exemplen kan den verifiera att det blir rätt.

intressant...

6. Be den visa listan med en hård struktur. T.ex. som en numrerad lista, eller på json-format.
det ska jag testa !

7. Listor med flera hundra textrader bör delas upp i "code chunks" så att den hanterar en chunk i en chatsession.
ja över 100-150 blir det alltid shaky. inte testat just code chunks tänket dock

2. Nej en canvas varken hindrar eller underlättar RAG-sökning på nätet. RAG-sökning på nätet kan man styra med promptar, men den brukar höja kvaliteten. Testa be den visa en text i en canvas så får du se vad canvas är. Den möjliggör att du kan backa tillbaka i historien.

7. Jag har märkt problemen vid betydligt längre texter än så. Många hundra eller över 1000 rader kod.
Citera
2025-11-10, 17:47
  #18
Medlem
Citat:
Ursprungligen postat av cambozolan
Jaha ja, vilken LLM ska jag ta då ?
vilka har du utvärderat, testat ordentligt?
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in