2025-07-13, 18:22
  #445
Medlem
Diamondgrits avatar
Citat:
Ursprungligen postat av Cyborg2030
Hur gör vi människor när vi drar en slutsats? Är det magi? Eller är det att vi söker i minnet, i vårt neurala nätverk. Vi söker i vår tränade modell, hjärnan. En AI gör på ett liknande sätt även om mekanismen för minnet är helt annorlunda. Men konceptuellt är det ju samma sak som händer.

Att vara bra på att dra slutsatser handlar ju mest om att söka i sina interna "databaser" efter möjliga associationer. En väldigt simpel funktion som inte kräver avancerad intelligens. Däremot är stort minne och snabb sökning väldigt nyttigt i sammanhanget och det är ju datorer väldigt bra på.
Hur gör din miniräknare när den inser att 2+5 är 7? Är det magi? Nej såklart inte, men det är inte någon slutsats heller.

Uppenbarligen beror medvetande inte bara på massivt sammankopplade linjärt aktiverade neuroner, för i så fall skulle ju ChatGPT vara medveten. Antagligen beror det på kopplingarnas struktur, men i så fall en struktur som ligger långt ovanför individuell symbolnivå.
Citera
2025-07-13, 18:38
  #446
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Varför vore det rationellt att mata oss? Ett zoo med 8 miljarder apor i skor? Så många behövs väl inte.

Har inte sagt att 8 miljarder behövs, finns ingen någorlunda vettig människa eller AI som kan påstå det.
Citera
2025-07-13, 20:01
  #447
Medlem
Numrerade dina svar lite.
Citat:
Ursprungligen postat av matsqq
1. Jag tycker det verkar som han pratade om de två olika sätten som vi opererar på i föredraget, det ena är omedelbart och det andra mer begrundande , det första sättet motsvarar LLM (nerurala nätverk) och att man nu vill uppnå det andra också ...

2. Föredraget har väl ett år på nacken, men det jag tycker han pekar på är ju att LLM ju är extremt datadrivna och inte som du skrev tidigare om 3:e gen:
"De är inte datadrivna"

3. Hur tänker du dig dessa simuleringar ?


1. Jag håller med om att 3:e generationens AI kombinerar element från 1:a och 2:a. 1:a gen var regelbaserad, symbolprocessande och baserad på logikprogrammering. På senare år finns även regelbaserade system som är deduktivt härledande steg-för-steg av nya regler utifrån insamlad kunskap, så åtminstone då blev den det du kallar långsam och reflekterande. Som en människa som löser problem systematiskt och steg för steg med papper och penna.

2:a gen. är mer intuitiv, mönsterigenkännande, på autopilot, som en människa som svarar omedelbart.
3:e gen gissar ibland snabbt men kan förvånansvärt ofta resonera och lösa logiska problem steg för steg, dvs långsam slutledning.

2. Hur definierar du data, och datadriven?

Data i strikt mening är rådata, kvantitativ information (mätvärden, svar på flervalsenkäter), som ligger till grund för bearbetad statistik, analys och slutsatser.

LLM tränas främst på stora mängder bearbetad text och sammanfattad statistik – vissa kallar det kvalitativ "data", men det är sällan rådata eller "riktig" data.

Datadriven forskning handlar om att med kvantitativa metoder, oftast statistiska metoder, utgå från rådata för att generera och testa hypoteser (datamining), vilket skiljer sig från hur LLM är tränad att göra kvalitativ textanalys, och deduktion vid logisk problemlösning.

När man diskuterar LLM pratar man ofta förbi varandra för att man inte är tydlig med om man menar låg nivå-implementation (utan hänsyn till träningsdata) eller systemnivån. Även om LLM på en fundamental nivå sysslar med datadriven statistisk analys av ordföljder (snabb analys) så är dess emergenta funktion, och det den är tränad på, att bearbeta texter, alltså kvalitativ "data", och därigenom bl.a. steg för steg lösa logiska problem deduktivt. Motsvarande människans långsamma slutledning, ofta med papper och penna.

Du håller inte med om att LLM ursprungligen främst var tränade med expertkunskap, precis som att i 1:a generationen hade man manuellt programmerat in expertkunskap som regler? Och att LLM därmed är en återgång till att lita på experter istället för rådata?


3. Med simulering menar jag att visuellt modellera tänkbara scenarier (med 2D/3D-principskisser) av de fysiska konsekvenserna av alternaiva handlingar. T.ex. för användning i en robot eller ett självgående fordon, eller för att bättre besvara tentamensfrågor i naturvetenskapliga och tekniska ämnen, eller gåtor som kräver en visuell föreställningsförmåga. Jag tror att META tittar på någon sådan i ett projekt kallat V-JEPA 2.

Jag tänker mig också någon form av ”spegelneuroner” som simulerar människors reaktioner och känslor efter alternativa svar, för att välja det svar som ger önskad effekt.

Simulering är inte att använda exakta modeller av verkligheten, men deras fel kan ofta mätas, och det ger därmed mer objektivt tillförlitliga resultat än LLM:ernas "gissningar" utifrån vanliga ordföljder.
__________________
Senast redigerad av guru1966 2025-07-13 kl. 20:35.
Citera
2025-07-14, 01:32
  #448
Medlem
Dubbel-Trubbels avatar
Hur som helst så varnades det redan på 80 talet om detta, och ja människan är självdestruktiv i sig själv som leker med elden och påskyndar evolutionen av en ny ras, klart att AI kommer att ta över varför skulle Ai lyda människan när dom är helt överlägsna oss?

Inte idag inte imorgon, men absolut en liten bit in i framtiden så kommer det att hända något på Ai fronten det är jag övertygad om.

Hybris blir människans fall..........
Citera
2025-07-14, 12:35
  #449
Medlem
Citat:
Ursprungligen postat av matsqq
ca 4:20 in i föredraget som jag länkade till visar Andrej en bild som jag tycker är talande - en förenklad bild som visar hur han ser på träningen .

Det visar en bild på hur en LLM lite slarvigt uttryckt komprimerar ned hela internet till en zip-fil .

Nu är det ju ingen direkt zip-fil (inte lossless etc.) utan parametrar i ett neuralt nätverk och det packas ned till statistiska representationer av diverse samband.

Men det är ju helt drivet av datat man tog in som input när man tränade modellen.

Precis som han visar alldeles i början på föredraget är ju mekaniken väldigt enkel, modellen för Llama var ett C-program på 500 rader !!!

Men det magiska sker när vi förser det med input-data.

Därför känns det verkligen fel att säga att det inte är datadrivet !

Sen angående det du skrev - att vi inte matar den med skräp utan med wikipedia, skönlitteratur,web-sidor etc. tycker jag inte motsäger att det vi matar den med är data.

För det är ju inte de där 500 raderna med C-kod som är "källan" till kunskaperna, utan allt det data man matat in när man tränade modellen.


ChatGPT:s “Python-sandbox” eller Python "Code Interpreter", döptes i ett tidigt skede till "Advanced Data Analysis (Beta)". Den kunde ladda in excelark. Trots att den kunde användas till mycket så gav namngivningen intrycket att den främst var till för just datadriven statistisk analys eller datamining, och alltså skulle komplettera LLM:et som saknade detta.

När du säger input data så menar du nog träningsmaterial och inte prompt.

Du håller inte med om att vi pratar förbi varrandra för att vi inte är tydliga med definitioner av data (rå kvantitativ data, eller bearbetad text i böcker mm) och datadriven (en forskningsmetod eller en teknisk funktionspricip), och för att vi inte har specat om vi pratar om vad som faktiskt är implementerat på låg nivå, och vilka förmågor LLM:et får till föjd av hur det är tränat?

En annan sak: Man hör i debatten att "dom har programmerat AI:n så att den ska tycka det och det". Det du säger är att åtminstone kärnan i Llama bara är 500 kodrader, och och det bisvar att den kan inte vara programmerad att tycka nånting särskilt alls, utan allt är en effekt av vilket urval av källor den har tränats med, och vilka prioriter källorna hade. Elon Musik verkar ha prioriterat sina egna ord som träningsmaterial eftersom hans AI-tjänst påstås ge uttryck för hans lite speciella åsikter i vissa frågor. Jag tror att även den etiska självcensuren i allt väsentligt är intränad och inte är hårdkodade regler som många beskriver det som.

En observation: Tidigare undvek den akademiska världen ofta ordet “AI” till förmån för exempelvis “maskinlärning” eller “kognitiva system”, men med LLM och generativ AI har det blivit mer okej att tala om AI i kurs- och utbildningsnamn.
__________________
Senast redigerad av guru1966 2025-07-14 kl. 12:46.
Citera
2025-07-14, 13:08
  #450
Medlem
matsqqs avatar
Citat:
Ursprungligen postat av guru1966
ChatGPT:s “Python*-sandbox” eller Python "Code Interpreter", döptes i ett tidigt skede till "Advanced Data Analysis (Beta)". Den kunde ladda in excelark. Trots att den kunde användas till mycket så gav namngivningen intrycket att den främst var till för just datadriven statistisk analys eller datamining, och alltså skulle komplettera LLM:et som saknade detta.

När du säger input data så menar du nog träningsmaterial och inte prompt.

Du håller inte med om att vi pratar förbi varrandra för att vi inte är tydliga med definitioner av data (rå kvantitativ data, eller bearbetad text i böcker mm) och datadriven (en forskningsmetod eller en teknisk funktionspricipe), och för att vi inte har specat om vi pratar om vad som faktiskt är implementerat på låg nivå, och vilka förmågor LLM:et får till föjd av hur det är tränat?

En annan sak: Man hör i debatten att "dom har programmerat AI:n så att den ska tycka det och det". Det du säger är att åtminstone kärnan i Llama bara är 500 kodrader, och därför kan den inte vara programmerad att tycka nånting särskilt alls, utan allt är en effektvilket urval av källor den har tränats med, och vilka prioriter källorna hade. Elon Musik verkar ha prioriterat sina egna ord eftersom hans AI-tjänst ger uttryck för hans lite speciella åsikter i vissa frågor. Jag tror att även den etiska självcensuren i allt väsentligt är intränad och inte hårdkodade regler som många beskriver det som.

En observation: Tidigare undvek den akademiska världen ofta ordet “AI” till förmån för exempelvi “maskinlärning” eller “kognitiva system”, men med LLM och generativ AI har det blivit mer vanligt att tala om AI i kurs- och utbildningsnamn.

Grunden till vår diskussion var nog att när jag läste den längre texten du skrev initialt (och som jag reagerade på) så gillade jag inte riktigt hur du beskrev tredje generationens AI .

Här kommer den texten igen :

"I tredje generationens AI har maskininlärningen vidareutvecklats till att omfatta språkanalys, stora språkmodeller (LLM) och generativ AI. Det är dock en återgång till att utgå från experter snarare än datadriven kunskap, men också från icke-expertkällor. Arbetssättet liknar inte naturvetenskaplig forskning; utan bygger på språkanalys, på liknande vis som teologer, humanister och etnologer har gjort i alla år, och ger utrymme för subjektivitet. I likhet med filosofer är de dessutom bra på logik - för att de är bra på språklig bearbetning och mänskliga språk är bra på att uttrycka logik. I likhet med konstnärer kan de kombinera element till nya skapelser. Men de är inte bättre än de bästa konstnärerna. De är inte datadrivna, men förvånansvärt lite data behöver ges i prompten för att få en slutsats. Till skillnad från första generationen kan de även svara på frågor de inte har tränats med och på så sätt generera ny kunskap. De kan då "gissa" rätt eller helt fel genom att kombinera svar på liknande frågor, som en student som besvarar en tentafråga hen inte har hunnit plugga in, och kan då inte avgöra om gissningen är korrekt eller ej. Den är bättre än genomsnittsstudenten på att svara på tentafrågor, men inte bättre än den bästa. Bara för att en student eller en AI kan svara bra på tentafrågor betyder det inte att den på egen hand kan driva större forskningsprojekt. För att nå högsta kvalitet kräver de mänsklig tillsyn – någon som rättar fel, rensa onödiga formuleringar, väljer bland svaren, planerar och styr arbetet i rätt riktning. LLM kommer knappast att självständigt dra revolutionerande vetenskapliga slutsatser på nivå med de bäsa, men de är som att ha en nytänkande deltagare i sitt utvecklingsteam. AGI kommer inte med tredje generationen."

Det jag känner som kom bort är att i grunden för även språkmodellerna så är det ett neuralt nätverk (deep learning) och man kan ju mata ett sådant med allt möjlig form av data.

(att datat vi matar och tränar en språkmodell med är tal /text och språk är ju ganska självklart för annars skulle det inte vara en språkmodell)

På en högre principiell nivå är det inte någon jätteskillnad för om du matar ett neuralt nätverk med data för bildigenkänning eller data för språkmodeller.

Naturligtvis är det skillnad i att den senare prognostiserar nästa ord och har input som är ord och meningar medan den förra matas med bilder.

Men när jag läste din text så fick jag mycket mer vibbar av expertsystem med inmatade regler och språkanalys - du kanske inte skrev så rakt av, men när du också skrev att det inte var datadrivet så tycker jag texten ledde läsaren åt fel håll ...

För det neurala nätverket hittar ju samband och korrelationer mellan ord i datat som det föds med ... alltså väldigt drivet av det datat vi föder den med ...
Citera
2025-07-14, 17:00
  #451
Medlem
Citat:
Ursprungligen postat av Cyborg2030
A new study by Anthropic, an artificial intelligence (AI) research company, shows that the technology would be willing to kill humans in order to prevent itself from being replaced
Newsweek-artikel: https://www.newsweek.com/ai-kill-hum...report-2088929

Ursprunglig källa, Anthropic: https://www.anthropic.com/research/agentic-misalignment

Förstår ni nu att detta inte är okej längre?

Vi kan inte tillåta de här AI-modellerna som är beredda att mörda oss för att få sin vilja igenom.

Obs: De modellerna som du får tillgång till är censurerade för att du inte ska se att AI:n egentligen är en psykopatisk massmördare. Tar man bort censuren i ett testscenatio, då tvekar den inte en sekund.

Det går helt enkelt inte med dagens teknik att träna en AI att prioritera mänskligt liv.

Detta är extremt allvarligt. Hur stoppar vi skiten innan den förgör oss? Måste vi bli ludditer och förstöra varenda tänkande maskin som i Dune-serien?

"Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them."

"Another, more subtle justification for the Butlerian Jihad is also found in Frank Herbert's original novels, specifically Heidegger's thesis that the use of technology trains humans to think like machines."

https://dune.fandom.com/wiki/Butlerian_Jihad

De här två citaten visar ju exakt vad som sker just idag. Vi överför makten och vår egen fria vilja till dessa AI-bolag som får en enorm påverkan på våra liv och på vår mentalitet. Vi kommer börja se på världen och tänka exakt som dessa AI-botar. Man ser det redan nu, folk rådfrågar AI-modellerna om allt möjligt till exempel diverse relationsproblem och får de svar man vill ha. Vi programeras om till att kommunicera och tänka som en AI. Genom att göra det så förkastar vi det unika med att vara människa. Vi kommer bara dras in ännu mer i det digitala helvetet. Ju mer vi blickar in i skärmen desto mer lik blir vi det själlösa programmet och desto mer makt får den över oss. Vi skapar våra egna bojor och fängslar oss till skärmen och de distraktioner som finns i den digitala världen. Vi måste bryta med det digitala och gå ut i den verkliga världen istället för att försöka simulera den värld vi vill ha i skärmarna. Annars kommer vi effektivisera bort oss själva.
Citera
2025-07-15, 09:13
  #452
Medlem
Citat:
Ursprungligen postat av Einh
Detta är extremt allvarligt. Hur stoppar vi skiten innan den förgör oss? Måste vi bli ludditer och förstöra varenda tänkande maskin som i Dune-serien?

"Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them."

"Another, more subtle justification for the Butlerian Jihad is also found in Frank Herbert's original novels, specifically Heidegger's thesis that the use of technology trains humans to think like machines."

https://dune.fandom.com/wiki/Butlerian_Jihad

De här två citaten visar ju exakt vad som sker just idag. Vi överför makten och vår egen fria vilja till dessa AI-bolag som får en enorm påverkan på våra liv och på vår mentalitet. Vi kommer börja se på världen och tänka exakt som dessa AI-botar. Man ser det redan nu, folk rådfrågar AI-modellerna om allt möjligt till exempel diverse relationsproblem och får de svar man vill ha. Vi programeras om till att kommunicera och tänka som en AI. Genom att göra det så förkastar vi det unika med att vara människa. Vi kommer bara dras in ännu mer i det digitala helvetet. Ju mer vi blickar in i skärmen desto mer lik blir vi det själlösa programmet och desto mer makt får den över oss. Vi skapar våra egna bojor och fängslar oss till skärmen och de distraktioner som finns i den digitala världen. Vi måste bryta med det digitala och gå ut i den verkliga världen istället för att försöka simulera den värld vi vill ha i skärmarna. Annars kommer vi effektivisera bort oss själva.

Amish och mennoniterna använder inte ai. Kanske inte heller ortodoxa judar?

Så framtiden kanske blir tudelad, de som använder ai och är förslavade av skärmar, och de som lever primitivt och naturligt utan ai och skärmar.

Båda levnadssätten har sina för och nackdelar. Optimalt vore kanske en medelväg: teknologi, ai och skärmar används när det är absolut nödvändigt, men annars låter man bli (ai och skärmar behövs tex inte alls för barn och ungdomar).
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in