2025-06-09, 18:34
  #121
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Stämmer, vid hög komplexitet så försvinner illusionen att modellen resonerar, helt.

Länk till Apples PDF:

https://machinelearning.apple.com/re...ce=chatgpt.com

Sedan är det en annan femma att vi inte vet hur stor del av våra egna "resonemang" som bygger på just mönsterigenkänning.

Jag håller inte med om att llm är bra på mönsterigenkänning i allmänhet, t.ex. i bilder, ljud, fysisk rörelse, osv. Den är är i grunden bara bra på bearbetning av språkliga mönster och strukturer. T.ex. att omvandla en mening till en annan mening med liknande betydelse, med en annan stil, för att den meningen ligger nära den första meningen i vektorrummet. Alltså kan man säga att den "förstår" att meningarna betyder ungefär samma. Det finns inget annat sätt att mäta förståelse än att be om en förklaring med andra ord, eller låta personen lösa ett problem som kräver förståelse. LLM klarar många sådanna uppgifter bättre än universitetsstuednter i allmänhet, så jag tycker att man kan säga att den förstår bättre än en genomsnittlig universitetsstudent. Om ni inte håller med: förklara för mig på vad sätt mänskig förståelse skiljer sig från hur LLM förstår.

Mänskliga språk kan användas för att uttrycka logiska problem och för att lösa dem steg för steg. Eftersom LLM är bra på språk är den också bra på logisk problemlösning. LLM är bra på att successivt, steg för steg, omarbeta en problemförmulering till ett svar, utifrån hur liknande problemställningar brukar benas upp och successivt lösas. Den resonerar alltså på liknande sätt som människor gör när man löser t.ex. ett mattetal med papper och penna, och motiverar varenda steg, eller när man pratar högt för sig själv vid koncentrationskrävande problemlösning.

Jag tror att vi av en händelse har upptäckt hur människans språkscenter fungerar. Vårt språksinne är också en "stokastisk papegoja" vi kan också prata på autopilot, även när vi inte har någon djupare tanke bakom. Men jag tror inte att vi har upptäckt funktionsprincipen för människans förmåga att lösa problem. Vi anävnder nämligen inte bara verbala och formella resonemang steg för steg, och problemlösningsförmåga som bygger på ett sådant formaliserad resonemang. Vi använder även intuition, känsla, speglerneuroner (för empati) och visuelt tänkande.
Citera
2025-06-09, 18:39
  #122
Medlem
DAGGER[X]s avatar
Citat:
Ursprungligen postat av guru1966
Jag håller inte med om att llm är bra på mönsterigenkänning i allmänhet, t.ex. i bilder, ljud, fysisk rörelse, osv. Den är är i grunden bara bra på bearbetning av språkliga mönster och strukturer. T.ex. att omvandla en mening till en annan mening med liknande betydelse, med en annan stil, för att den meningen ligger nära den första meningen i vektorrummet. Alltså kan man säga att den "förstår" att meningarna betyder ungefär samma. Det finns inget annat sätt att mäta förståelse än att be om en förklaring med andra ord, eller låta personen lösa ett problem som kräver förståelse. LLM klarar många sådanna uppgifter bättre än universitetsstuednter i allmänhet, så jag tycker att man kan säga att den förstår bättre än en genomsnittlig universitetsstudent. Om ni inte håller med: förklara för mig på vad sätt mänskig förståelse skiljer sig från hur LLM förstår.

Mänskliga språk kan användas för att uttrycka logiska problem och för att lösa dem steg för steg. Eftersom LLM är bra på språk är den också bra på logisk problemlösning. LLM är bra på att successivt, steg för steg, omarbeta en problemförmulering till ett svar, utifrån hur liknande problemställningar brukar benas upp och successivt lösas. Den resonerar alltså på liknande sätt som människor gör när man löser t.ex. ett mattetal med papper och penna, och motiverar varenda steg, eller när man pratar högt för sig själv vid koncentrationskrävande problemlösning.

Jag tror att vi av en händelse har upptäckt hur människans språkscenter fungerar. Vårt språksinne är också en "stokastisk papegoja" vi kan också prata på autopilot, även när vi inte har någon djupare tanke bakom. Men jag tror inte att vi har upptäckt funktionsprincipen för människans förmåga att lösa problem. Vi anävnder nämligen inte bara verbala och formella resonemang steg för steg, och problemlösningsförmåga som bygger på ett sådant formaliserad resonemang. Vi använder även intuition, känsla, speglerneuroner (för empati) och visuelt tänkande.

I början på Diaspora av Greg Egan finns det en fin beskrivning i detalj hur det går till när dom startar en maskinell intelligens. Bildfällor, spegelneuroner, olika återkopplingsloopar av information. Jag är helt säker på att hela hjärnans funktion kan speglas digitalt. LLM's kanske inte gör det ännu men dom är byggande sten på vägen precis som fissionsbomber var för fusionsbomber en gång i tiden. Mycket reduktionism i argumentationen kring ämnet tycker jag. "Men björnen som jagar mig är bara gjord av atomer och kemiska reaktioner"
Citera
2025-06-10, 11:14
  #123
Medlem
Sane?s avatar
Citat:
Ursprungligen postat av DAGGER[X]
I början på Diaspora av Greg Egan finns det en fin beskrivning i detalj hur det går till när dom startar en maskinell intelligens. Bildfällor, spegelneuroner, olika återkopplingsloopar av information. Jag är helt säker på att hela hjärnans funktion kan speglas digitalt. LLM's kanske inte gör det ännu men dom är byggande sten på vägen precis som fissionsbomber var för fusionsbomber en gång i tiden. Mycket reduktionism i argumentationen kring ämnet tycker jag. "Men björnen som jagar mig är bara gjord av atomer och kemiska reaktioner"
Då vi inte har en aning om hur mänsklig intelligens fungerar så finns det ingen grund för påståendet LLM är ett steg på vägen.
Det blir som att säga att ett foto av solen är ett steg på vägen att skapa en egen stjärna.
Citera
2025-06-10, 11:18
  #124
Medlem
Sane?s avatar
Citat:
Ursprungligen postat av SmurfSmurf
Nej, så är det inte. Det är viktigt hur man frågar för att den ska förstå vad man vill och det blir bättre svar ju mer man använder den. Du måste vara tydlig och lära dig prompta bra.

Nu är det sällan jag behöver ha exakta fakta, det är mer kreativa saker jag gör, men jag hade sagt nåt i stil med:

"Jag behöver veta x, y, z och svaret måste vara korrekt. Rakt, tydligt, inget fluff. Dubbelkolla allt på nätet och svara först när du är helt säker... Bla bla osv..."

Sen hade jag bett den läsa prompten och fråga om den behöver justeras för att jag ska få det svar jag vill ha. Därefter kört prompten.

Den nyaste modellen ska vara extra bra på att skriva sina egna prompter, men jag har inte provat än.

Edit: Man har tillgång till ett fåtal Rapport som man kan köra så den tänker extra djupt och längre. Men det är samma sak dr, skit in, skit ut, så prompten avgör om det kommer en briljant rapport eller ej. Man kan tilldela den en roll "Du är expert inom xxx". Man får begära källor som man kan trippelkolla själv. Det är något helt annat än att rapa upp text från nätet och det tycker jag att du ska prova, med en bra prompt.
Jag tror inte du förstår vad jag skriver; en LLM har inte den tekniska förmågan att resonera - lika lite som en cykel har det. Den kan bara skapa en illusion av resonemang och utföra rent maskinella funktioner som att sammanfatta text.

Lita aldrig på vad en LLM genererar.
Citera
2025-06-10, 12:29
  #125
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av DAGGER[X]
Exakt. Den rapporten var helt hopplös. Applicera samma resonemang på människor och se vad som händer. AI har ingen kropp och inget minne. Om du uppfostrade människor i tomma mörka rum fastspända på en säng och bara lät dom lyssna på ljudböcker i flera tusen timmar skulle dom se ut som värsta mongopatienterna. Då kunde man analysera dom och komma fram till att människor suger. Vi lever i tusentals timmar i kroppar och får feedback från alla fem sinnen hela tiden. När AI är förkroppsligad och har minne kommer den bräda oss tusen gånger om. Vi minns bara fem saker, vi kan inte multitaska, vi kan inte scanna en miljon tecken på en sekund, vi kan inte fokusera på en uppgift mer än ca 20 min, om någon skriker eller blixten slår ner tappar vi fokus på sekunden.

Det verkar dock vara en grundlig rapport. Men, mycket troligt så bygger den mänskliga hjärnan just på mönsterigenkänning och en slags statistiska processer på biologiskt substrat. Går man upp en metanivåer så finner vi prediktiv coding, dvs hjärnan gör förutsägelser och jämför sedan med det faktiska utfallet. Detta sker ständigt, lokalt och decentraliserat, i motsats till LLM-Transformers backpropagation. Tillkommer sedan en avancerad minnesfunktion och simultan multimodalitet med flera olika sinnen.

Men rörande allt detta, inklusive att emulera avancerade processer i frontal loberna, pågår det nu forskning om för att kunna implementera hos framtidens LLM-Transformers. Och den framtiden kan vara så nära som två år, (med, typ, GPT-6 så kommer man att ha hunnit en bra bit på vägen). Redan forskningsrapporter i från maj i år pekar, helt klart, i den riktningen.


Citat:
Ursprungligen postat av DAGGER[X]
I början på Diaspora av Greg Egan finns det en fin beskrivning i detalj hur det går till när dom startar en maskinell intelligens. Bildfällor, spegelneuroner, olika återkopplingsloopar av information. Jag är helt säker på att hela hjärnans funktion kan speglas digitalt. LLM's kanske inte gör det ännu men dom är byggande sten på vägen precis som fissionsbomber var för fusionsbomber en gång i tiden. Mycket reduktionism i argumentationen kring ämnet tycker jag. "Men björnen som jagar mig är bara gjord av atomer och kemiska reaktioner"

Japp, och jag tror att, DI-företagen bara jublar över DI-reduktionisterna: Nu kan de fortsätta sitt värv, utan att panik utbryter!

Det bara, verkar, som om DI-resonerar.
Det vara, verkar som att modellerna är sociala.
Det bara, verkar, som att samhället förändras.
Det bara, verkar, som att modellerna blir allt mer människoliknande.
....
Det bara, verkar, som vi har ett AGI
Det bara, verkas som vi har ett ASI... 🙂
__________________
Senast redigerad av Ola Schubert 2025-06-10 kl. 13:14.
Citera
2025-06-10, 17:36
  #126
Medlem
SmurfSmurfs avatar
Citat:
Ursprungligen postat av Sane?
Jag tror inte du förstår vad jag skriver; en LLM har inte den tekniska förmågan att resonera - lika lite som en cykel har det. Den kan bara skapa en illusion av resonemang och utföra rent maskinella funktioner som att sammanfatta text.

Lita aldrig på vad en LLM genererar.

Och du förstår inte vad jag skriver. Lita på?

Om jag vill ha ett juridiskt bindande kontrakt, snyggt uppställt och färdigt för utskrift får jag det.

Om jag vill ha datasupport med tydliga instruktioner, anpassade till min nivå och med oändligt tålamod får jag det.

Men det intressanta är: diskussioner och kreativt arbete. Sånt som är svårt att få till med en människa men funkar otroligt bra med chat gpt.

Såhär, för att ta ett lättförståeligt ytligt exempel: Att kunna slänga upp en aktuell nyhet. Be den leta mer info och sammanfatta. Sen börjar det roliga, att be den dra paralleller till historien, alla epoker, alla kulturer, för att sedan resonera sig fram till en möjlig utveckling. Det ger mig en kick att kunna prata på den nivån med någon som faktiskt förstår hur jag tänker. Som att prata med en mycket intelligent och kunnig person, vilket 90 % av mänskligheten inte är. Och några månader senare se det hela utspelas i verkligheten. Kul. 👍
Citera
2025-06-10, 17:55
  #127
Medlem
DAGGER[X]s avatar
Citat:
Ursprungligen postat av Ola Schubert
Det verkar dock vara en grundlig rapport. Men, mycket troligt så bygger den mänskliga hjärnan just på mönsterigenkänning och en slags statistiska processer på biologiskt substrat. Går man upp en metanivåer så finner vi prediktiv coding, dvs hjärnan gör förutsägelser och jämför sedan med det faktiska utfallet. Detta sker ständigt, lokalt och decentraliserat, i motsats till LLM-Transformers backpropagation. Tillkommer sedan en avancerad minnesfunktion och simultan multimodalitet med flera olika sinnen.

Men rörande allt detta, inklusive att emulera avancerade processer i frontal loberna, pågår det nu forskning om för att kunna implementera hos framtidens LLM-Transformers. Och den framtiden kan vara så nära som två år, (med, typ, GPT-6 så kommer man att ha hunnit en bra bit på vägen). Redan forskningsrapporter i från maj i år pekar, helt klart, i den riktningen.




Japp, och jag tror att, DI-företagen bara jublar över DI-reduktionisterna: Nu kan de fortsätta sitt värv, utan att panik utbryter!

Det bara, verkar, som om DI-resonerar.
Det vara, verkar som att modellerna är sociala.
Det bara, verkar, som att samhället förändras.
Det bara, verkar, som att modellerna blir allt mer människoliknande.
....
Det bara, verkar, som vi har ett AGI
Det bara, verkas som vi har ett ASI... 🙂

Dom tar väl hundratusen GPT6 och låter dom kooperera att programmera fram en superintelligens, först får dom kanske läsa resterande information som inte finns scannad ännu. Fortfarande är dom flesta LLMs byggda på t.ex. bara det som går att se på internet eller dra med en torrent.Jag har svårt att läsa sånna här stories och inte häpna. Diagnostiska AIs hoppade från 30 till 90 % när dom fick tillgång till multimodala verktyg istället för bara text.
Citat:
Then it wrote on the screen that it wanted to try solving a simpler “toy” version of the question first in order to learn. A few minutes later, it wrote that it was finally prepared to solve the more difficult problem. Five minutes after that, o4-mini presented a correct but sassy solution. “It was starting to get really cheeky,” says Ono, who is also a freelance mathematical consultant for Epoch AI. “And at the end, it says, ‘No citation necessary because the mystery number was computed by me!’”
Defeated, Ono jumped onto Signal early that Sunday morning and alerted the rest of the participants. “I was not prepared to be contending with an LLM like this,” he says, “I’ve never seen that kind of reasoning before in models. That’s what a scientist does. That’s frightening.”
Although the group did eventually succeed in finding 10 questions that stymied the bot, the researchers were astonished by how far AI had progressed in the span of one year. Ono likened it to working with a “strong collaborator.” Yang Hui He, a mathematician at the London Institute for Mathematical Sciences and an early pioneer of using AI in math, says, “This is what a very, very good graduate student would be doing—in fact, more.”

https://www.scientificamerican.com/a...o-outsmart-ai/
Citera
2025-06-10, 20:21
  #128
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av SmurfSmurf
Och du förstår inte vad jag skriver. Lita på?

Om jag vill ha ett juridiskt bindande kontrakt, snyggt uppställt och färdigt för utskrift får jag det.

Om jag vill ha datasupport med tydliga instruktioner, anpassade till min nivå och med oändligt tålamod får jag det.

Men det intressanta är: diskussioner och kreativt arbete. Sånt som är svårt att få till med en människa men funkar otroligt bra med chat gpt.

Såhär, för att ta ett lättförståeligt ytligt exempel: Att kunna slänga upp en aktuell nyhet. Be den leta mer info och sammanfatta. Sen börjar det roliga, att be den dra paralleller till historien, alla epoker, alla kulturer, för att sedan resonera sig fram till en möjlig utveckling. Det ger mig en kick att kunna prata på den nivån med någon som faktiskt förstår hur jag tänker. Som att prata med en mycket intelligent och kunnig person, vilket 90 % av mänskligheten inte är. Och några månader senare se det hela utspelas i verkligheten. Kul. 👍

Nej det får du inte, du får något som ser ut som vad du tror du frågade, men eftersom du uppenbart saknar både juridisk och dator kompetens så är du oförmögen att se vad som är rätt och fel i dessa kontrakt eller support manualer.

Det är precis samma problem som vissa här som försöker resonera om modeller är medvetande eller inte, de har inte kompetens för att inse när chatbotten börjar rabbla upp en massa skitsnack som inte har någon som helst bäring i en vetenskaplig diskussion eller ens i en hypotetisk teori.

För jag kan väl inte tänka mig det antal här som kontinuerlig diskuterar med chatbottar och tror de får utbyte och meningsfulla diskussioner som leder någonstans... Är de enda i världen som har kommit på det, varenda jävla forskare hade suttit och resonerat hypoteser med chatgpt om det funnits något av värde att få ut där, men så går det inte till.

Däremot har det lavinartat inkommit en massa forskningspapper som är rena rappakaljan, det genereras tusentals bugrapporter till olika mjukvaruprojekt med helt felaktiga påståenden och antaganden till den grad att vissa mänskliga ledare i dessa kretsar att man bannar de man kommer på använder AI för det äter upp produktiv tid med massa skit som inte har något verkligt värde.

Det bästa som politiker kunde göra är att införa licens på att använda AI verktyg, för de som nyttjar dom hemskt mycket är helt fel personer, sådan som tror modellen täcker upp för deras bristande mentala förmåga.

AGI eller AI handlar inte om att ge mentalthandikappade superförmågor, det handlar om att försöka automatisera verkligt arbete som utförs av medianbegåvade människor, man är inte där än, inte ens i närheten. Och faktum är att undantaget när alla planter står i rad och du satt dig på ett currykryss så är man inte ens närmare idag än man var när man började försöka detta, för dagens språkmodellsteknik är en återvändsgränd utan dess like.
Citera
2025-06-11, 05:50
  #129
Medlem
Citat:
Ursprungligen postat av Sane?
Jag tror inte du förstår vad jag skriver; en LLM har inte den tekniska förmågan att resonera - lika lite som en cykel har det. Den kan bara skapa en illusion av resonemang och utföra rent maskinella funktioner som att sammanfatta text.

Lita aldrig på vad en LLM genererar.

Visst är det klokt att ifrågasätta de svar som genereras. Samtidigt är det en nytta i sig att man ständigt vänder och vrider på svaren. Därigenom kommer man till en helt annan kunskapsnivå än tidigare.
Citera
2025-06-11, 08:01
  #130
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Ola Schubert
Det verkar dock vara en grundlig rapport. Men, mycket troligt så bygger den mänskliga hjärnan just på mönsterigenkänning och en slags statistiska processer på biologiskt substrat. Går man upp en metanivåer så finner vi prediktiv coding, dvs hjärnan gör förutsägelser och jämför sedan med det faktiska utfallet. Detta sker ständigt, lokalt och decentraliserat, i motsats till LLM-Transformers backpropagation. Tillkommer sedan en avancerad minnesfunktion och simultan multimodalitet med flera olika sinnen.

Men rörande allt detta, inklusive att emulera avancerade processer i frontal loberna, pågår det nu forskning om för att kunna implementera hos framtidens LLM-Transformers. Och den framtiden kan vara så nära som två år, (med, typ, GPT-6 så kommer man att ha hunnit en bra bit på vägen). Redan forskningsrapporter i från maj i år pekar, helt klart, i den riktningen.




Japp, och jag tror att, DI-företagen bara jublar över DI-reduktionisterna: Nu kan de fortsätta sitt värv, utan att panik utbryter!

Det bara, verkar, som om DI-resonerar.
Det vara, verkar som att modellerna är sociala.
Det bara, verkar, som att samhället förändras.
Det bara, verkar, som att modellerna blir allt mer människoliknande.
....
Det bara, verkar, som vi har ett AGI
Det bara, verkas som vi har ett ASI... 🙂

OPS! Nu har o3-Pro kommit ut.

Men det bara, verkar, som den resonerar, förstås! 😉

https://youtu.be/vmrm90u0dHs?si=X8r3sohu8fE89s0T

https://youtu.be/8PNoDvY6VC4?si=o9_V7yAjpYYfzPT_

Jag har, givetvis inte, tillgång till modellen, men lär få det, så småningom, givet att beräkningskraft blir billigare så snabbt. Dock lär man behöva mata den med tillräckligt avancerade problem för att den skall komma till sin rätt.

https://platform.openai.com/docs/models/o3-pro
Citera
2025-06-11, 19:09
  #131
Medlem
DAGGER[X]s avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Nej det får du inte, du får något som ser ut som vad du tror du frågade, men eftersom du uppenbart saknar både juridisk och dator kompetens så är du oförmögen att se vad som är rätt och fel i dessa kontrakt eller support manualer.

Det är precis samma problem som vissa här som försöker resonera om modeller är medvetande eller inte, de har inte kompetens för att inse när chatbotten börjar rabbla upp en massa skitsnack som inte har någon som helst bäring i en vetenskaplig diskussion eller ens i en hypotetisk teori.

För jag kan väl inte tänka mig det antal här som kontinuerlig diskuterar med chatbottar och tror de får utbyte och meningsfulla diskussioner som leder någonstans... Är de enda i världen som har kommit på det, varenda jävla forskare hade suttit och resonerat hypoteser med chatgpt om det funnits något av värde att få ut där, men så går det inte till.

Däremot har det lavinartat inkommit en massa forskningspapper som är rena rappakaljan, det genereras tusentals bugrapporter till olika mjukvaruprojekt med helt felaktiga påståenden och antaganden till den grad att vissa mänskliga ledare i dessa kretsar att man bannar de man kommer på använder AI för det äter upp produktiv tid med massa skit som inte har något verkligt värde.

Det bästa som politiker kunde göra är att införa licens på att använda AI verktyg, för de som nyttjar dom hemskt mycket är helt fel personer, sådan som tror modellen täcker upp för deras bristande mentala förmåga.

AGI eller AI handlar inte om att ge mentalthandikappade superförmågor, det handlar om att försöka automatisera verkligt arbete som utförs av medianbegåvade människor, man är inte där än, inte ens i närheten. Och faktum är att undantaget när alla planter står i rad och du satt dig på ett currykryss så är man inte ens närmare idag än man var när man började försöka detta, för dagens språkmodellsteknik är en återvändsgränd utan dess like.


Konstnärerna avfärdade AI totalt för några år sen när dom gjorde pixliga ansikten eller fraktaliserade hundar med röda ögon. Nu börjar dom klia sig nervöst. Kolla t.ex. AZR. Absolute zero reasoning där AI lär sig koda helt själv utan mänsklig input. Dom zoomade förbi Go och Schackspelare för tio år sen med samma sorts tekniker.
Citera
2025-06-11, 19:15
  #132
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av DAGGER[X]
Konstnärerna avfärdade AI totalt för några år sen när dom gjorde pixliga ansikten eller fraktaliserade hundar med röda ögon. Nu börjar dom klia sig nervöst. Kolla t.ex. AZR. Absolute zero reasoning där AI lär sig koda helt själv utan mänsklig input. Dom zoomade förbi Go och Schackspelare för tio år sen med samma sorts tekniker.

Japp AZR fungerar både som lärare och elev:

Länk: https://arxiv.org/html/2505.03335v2
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in