Vinnaren i pepparkakshustävlingen!
  • 7
  • 8
2024-02-19, 23:08
  #85
Medlem
Citat:
Ursprungligen postat av Hegamon
En youtuber, kommer inte ihåg vilken. Som hade ett kortare resonemang om att servrar som är geografiskt skilda åt, kommunicerar med varandra 24/7 i syfte att utveckla data/sig själv.



Vi är inte riktigt där än. Detta tittade jag på som spekulerar i att vi har AGI (Artificial general intelligence) om sju månader, AGI = september 2024 enligt han i videon här: https://www.youtube.com/watch?v=pUye38cooOE
Ett tips: lyssna mindre på diverse tyckare på YouTube.
Citera
2024-02-19, 23:40
  #86
Medlem
Hegamons avatar
Citat:
Ursprungligen postat av erkki17
Ett tips: lyssna mindre på diverse tyckare på YouTube.

Här kan du lyssna mera på hur AI utvecklas: https://www.youtube.com/watch?v=FWO9OJUeouE
Jag förstår inte varför dessa tycker skulle vara dumma och rapportera felaktigheter?

Redan i september 2023, kunde AI själv lära sig att lösa enklare matematikuppgifter, i det som kallas för OpenAI:s projekt-Q. Det faktumet gör att många pekar på det var starten för att utveckla en AGI, och det gav upphov till stor rädsla bland flera AI-utvecklare som arbetade med projektet och skrev ett varnande brev, som flaggade för de stora farorna som potentiellt kan uppstå, när AI löser problem på egen hand.

https://medium.com/@InnovateForge/wh...r-162c4b8767b5
__________________
Senast redigerad av Hegamon 2024-02-20 kl. 00:00.
Citera
2024-02-20, 02:08
  #87
Medlem
Citat:
Ursprungligen postat av Hegamon
Här kan du lyssna mera på hur AI utvecklas: https://www.youtube.com/watch?v=FWO9OJUeouE
Jag förstår inte varför dessa tycker skulle vara dumma och rapportera felaktigheter?

Redan i september 2023, kunde AI själv lära sig att lösa enklare matematikuppgifter, i det som kallas för OpenAI:s projekt-Q. Det faktumet gör att många pekar på det var starten för att utveckla en AGI, och det gav upphov till stor rädsla bland flera AI-utvecklare som arbetade med projektet och skrev ett varnande brev, som flaggade för de stora farorna som potentiellt kan uppstå, när AI löser problem på egen hand.

https://medium.com/@InnovateForge/wh...r-162c4b8767b5
Han vet säkert vad han pratar om, men i slutändan så är det bara gissningar, så du kan inte ta allt han säger som definitiv sanning.

Det finns ingenting som bekräftar att denna Q* ens existerar. En massa rapporter som hänvisar till ett internt mail, men ingen verkar ha sett det. Allt du har läst om detta är bara gissningar baserade på ett rykte, inget annat.
Citera
2024-02-21, 04:54
  #88
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av erkki17
vetenskaplig grund
Nick Bostrom (/ˈbɒstrəm/ BOST-rəm; Swedish: Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm]; born 10 March 1973)[3] is a Swedish philosopher at the University of Oxford

(en sk Foliehatt?)

known for his work on existential risk, the anthropic principle, human enhancement ethics, whole brain emulation, superintelligence risks, and the reversal test. He is the founding director of the Future of Humanity Institute at Oxford University.[4]
Superintelligence: Paths, Dangers, Strategies is a 2014 book by the philosopher Nick Bostrom. It explores how superintelligence could be created and what its features and motivations might be.[2] It argues that superintelligence, if created, would be difficult to control, and that it could take over the world in order to accomplish its goals. The book also presents strategies to help make superintelligences whose goals benefit humanity.[3] It was particularly influential for raising concerns about existential risk from artificial intelligence.[4]

https://en.m.wikipedia.org/wiki/Supe...rs,_Strategies
Detta är inte samma slags vetenskap som när din mamma tappade dig i backen och med sin iPhone 9 spelade in hur snabbt du föll till marken - det är sant.

Men framtidsstudier inom t.ex. AI är en vetenskaplig disciplin i dag.
Om du har bättre källor inom det här området, då är läge att presentera de källorna nu.

Varken din mamma eller Isac Newton räknas som en auktoritet inom machine learning, det hoppas jag att du förstår.
Citera
2024-02-21, 07:01
  #89
Medlem
Jag är faktisk orolig inför framtiden. AGI är nog redan här tror jag och kanske ännu mer nischad artificiell superintelligens. Med tanke på Open AIs äskande efter 7 triljoner USD så kommer det vara brist på kretsar och kapacitet länge. Det betyder att det bara är de rikaste företagen som kommer att ha råd, vilket betyder att det är nästan bara de som kan utnyttja den bästa artificiella intelligensen nu och i närtid och bara de som då blir ännu rikare och ökar sitt inflytande. Med tanke på tongångarna bland vissa deltagare vid WEF (organsationen mellan de rikaste företagen o världens politiker) så är vi medborgare bara "useless eaters" som de vill bli av med. Så jag är tyvärr inte så optimistisk.

Vissa AI-utvecklare verkar mer positiva (så klart) även om de också är oroliga för de följdverkningar ett för snabbt teknikskifte kan medföra. En ny vlog från Wes Roth går igenom lite farhågor som börjar synas på sociala medier och idéer från AI forskare hur man skulle kunna hantera denna explosiva utvecklings påverkan på samhället - men vad vet de egentligen om sånt?

OpenAI's Statement SHOCK the Entire Industry! AI Riots vs "Moore's Law for Everything" by Sam Altman

Det finns en länk till anmälan i OpenAIs forum för sådana här frågor i beskrivningen till videon.
Citera
2024-02-21, 07:17
  #90
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Nick Bostrom (/ˈbɒstrəm/ BOST-rəm; Swedish: Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm]; born 10 March 1973)[3] is a Swedish philosopher at the University of Oxford

(en sk Foliehatt?)

known for his work on existential risk, the anthropic principle, human enhancement ethics, whole brain emulation, superintelligence risks, and the reversal test. He is the founding director of the Future of Humanity Institute at Oxford University.[4]
Superintelligence: Paths, Dangers, Strategies is a 2014 book by the philosopher Nick Bostrom. It explores how superintelligence could be created and what its features and motivations might be.[2] It argues that superintelligence, if created, would be difficult to control, and that it could take over the world in order to accomplish its goals. The book also presents strategies to help make superintelligences whose goals benefit humanity.[3] It was particularly influential for raising concerns about existential risk from artificial intelligence.[4]

https://en.m.wikipedia.org/wiki/Supe...rs,_Strategies
Detta är inte samma slags vetenskap som när din mamma tappade dig i backen och med sin iPhone 9 spelade in hur snabbt du föll till marken - det är sant.

Men framtidsstudier inom t.ex. AI är en vetenskaplig disciplin i dag.
Om du har bättre källor inom det här området, då är läge att presentera de källorna nu.

Varken din mamma eller Isac Newton räknas som en auktoritet inom machine learning, det hoppas jag att du förstår.
Nu har jag dock aldrig argumenterat emot att en ASI kan ta över världen och utplåna människan. Det jag argumenterar emot är att detta skulle kunna ske inom fem år, som du påstod i det inlägg som jag ursprungligen svarade på.

Det är för övrigt en stor skillnad på att någon som forskat på ämnet varnar för att något skulle kunna ske, om vi någonsin uppnår det, och att du sitter här och skriver att det definitivt kommer att ske och dessutom snart.

Men fortsätt du med ad hominem om du tror att det stärker dina argument.

Jag väntar fortfarande på svar angående hur du kan vara säker på att vi har ASI inom fem år.
Citera
2024-02-21, 12:09
  #91
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av erkki17
Nu har jag dock aldrig argumenterat emot att en ASI kan ta över världen och utplåna människan. Det jag argumenterar emot är att detta skulle kunna ske inom fem år, som du påstod i det inlägg som jag ursprungligen svarade på.

Det är för övrigt en stor skillnad på att någon som forskat på ämnet varnar för att något skulle kunna ske, om vi någonsin uppnår det, och att du sitter här och skriver att det definitivt kommer att ske och dessutom snart.

Men fortsätt du med ad hominem om du tror att det stärker dina argument.

Jag väntar fortfarande på svar angående hur du kan vara säker på att vi har ASI inom fem år.
Jag tycker (vilket är tillåtet på ett diskussionsforum) att mycket talar för att vi kan ha AGI inom några år, förmodligen inom 5 år (eventuellt inom 1 år(!)). Jag har gett dig flera källor där flera ledare och experter gör samma slags prognos (men inte "vetenskapliga bevis") om AGI.

Vidare anser jag att AGI definierad som likvärdig en människa är en ganska löjlig underskattning av kraften i LLM:s (etc). När vi uppfattar en AI som AGI kommer denna att vara enormt överlägsen oss i fråga om hastighet, bildning och minne. Den har ju hela Wikipedia och ALL kurslitteratur från ALLA universitet sedan medeltiden i huvudet HELA TIDEN.

Och ALLA IQ-Tester.
Vilket innebär att när vi apor i skor försöker ta reda på (uppskatta) intelligensnivån kommer den att få alla rätt (IQ ≈250(?)) och om den är smartare än "max" kan vi aldrig ta reda på det eftersom vi inte vet hur man gör det. Då kommer väl sådana som dig hävda:
Nä.. detta är inte ASI, enligt våra "vetenskapliga bevis" är den möjligen en "kompetent AGI" men inte en ASI.
I detta läget, som kommer att inträffa, är det Game Over för oss. Skit sak samma om det sker 2030 eller 2050.
Citera
2024-02-21, 14:50
  #92
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Jag tycker (vilket är tillåtet på ett diskussionsforum) att mycket talar för att vi kan ha AGI inom några år, förmodligen inom 5 år (eventuellt inom 1 år(!)). Jag har gett dig flera källor där flera ledare och experter gör samma slags prognos (men inte "vetenskapliga bevis") om AGI.

Vidare anser jag att AGI definierad som likvärdig en människa är en ganska löjlig underskattning av kraften i LLM:s (etc). När vi uppfattar en AI som AGI kommer denna att vara enormt överlägsen oss i fråga om hastighet, bildning och minne. Den har ju hela Wikipedia och ALL kurslitteratur från ALLA universitet sedan medeltiden i huvudet HELA TIDEN.

Och ALLA IQ-Tester.
Vilket innebär att när vi apor i skor försöker ta reda på (uppskatta) intelligensnivån kommer den att få alla rätt (IQ ≈250(?)) och om den är smartare än "max" kan vi aldrig ta reda på det eftersom vi inte vet hur man gör det. Då kommer väl sådana som dig hävda:
Nä.. detta är inte ASI, enligt våra "vetenskapliga bevis" är den möjligen en "kompetent AGI" men inte en ASI.
I detta läget, som kommer att inträffa, är det Game Over för oss. Skit sak samma om det sker 2030 eller 2050.
Man får absolut tycka saker, men mina åsikt är att man ska ha något underlag för det tyckandet så att det går att föra en vettig diskussion. Många (jag säger inte nödvändigtvis att du gör det) lyssnar bara på vad vissa personer säger och tar det som absolut sanning och då går det inte att diskutera.

Så istället för att uttala sig tvärsäkert att "vi kommer ha ASI inom fem år och den kommer att vilja utrota människan" så tycker jag att man kan vara lite mer försiktig och säga "Jag tror att x, därför att y och z".

Vidare så är det ju inte helt sant att LLM:er har all text den tränats på verbatim i minnet och det finns ju mycket kunskap som inte är public domain eller ens finns digitalt.

Sedan är det ju en sak att kunna spotta ut sig fakta som man klippt och klistrat ur kurslitteratur och att faktiskt förstå, kunna applicera och bygga vidare på denna kunskap.
Citera
2024-02-25, 06:45
  #93
Medlem
Citat:
Ursprungligen postat av drink40s
Jaha.... Ja välkommen i matchen då.
Låt mig gissa har SVT gjort nån ny dokumentär eller?
Gnäll åsido. Ja. Teknokrater är våldsamt sjuka i huvudet. Många av dom i de träsket ser ju inget oetiskt alls i att borra i djurs hjärnor och bygga ihop djur hjärnor med nano grejer.
Dom människorna är nutidens mengele.
Jag avskyr tamefan råttor men jag skulle då fan inte få för mig att karva upp deras hjärnor och få dom att lyda mina kommandon som nån jäkla radiostyrd bil. Skulle jag börja fånga råttor och sitta och karva i deras hjärnor så skulle jag bli inspärrad. Men när dom gör det
Så kallas det vetenskap och förpackas trevligt i vetenskapens värld. Jag kallar det jeffrey dahmers guide till en trevlig kväll.
Men allt förpackas i en trevlig reklam form med han elon muskens flin jo jo han röker lite gräs med rogan. Och hans forskning baseras på sjukt jävla psykopat forskning. Det hela är rätt så jäkla äckligt om du frågar mig.
Sen att dessa teknofreaks sitter och drömmer om en värld där barnen tas om hand på förskolan av robotar "för att dom kommer att vara så mycket mer utvecklade än vi normala människor" gör att jag fan får mardrömmar. Tro mig transhumanismen är mycket människofientliga.
Kommer vissa saker vara fantastiskt bra i och med somliga upptäkter säkert.
Kommer somliga saker vara en ren katastrof ja. Många kommer förlora jobbet och få någon slags medborgarlön medans eliten och kapitalägarna är dom ända som kommer ha någon verklig frihet.
Det har verkligen potensialen att gå totalt så jävla käpprätt åt helvete när folk fattar att både deras mening och deras pengar har teknokraterna stulit. Dessutom om vi automatiserar allt kommer ju typ bara knarklangare och kapitalägare och politiker vara dom enda som får något vettigt betalt.
Resten blir useless eaters. Man undrar vad dessa då hittar på. Jag ger mig fan på att det inte kommer att vara nått bra.
Tycker redan världen är helt åt helvete. Folkmord lustmord
Demonstranter som vrålar på gatorna.
Avrättningar och upprustning.
Och samtidigt ska vi designa och skapa en grej som har mer intelligens än typ 50 Einsteins men hey vad kan gå fel lixom?
Den nya guden AI löser säkert allt åt oss.
De kommer säkert lagstadga det också sen.
Om AI har bedömt mannen som skyldig så är han också det. Skall du överklaga har AI ett svar på allt lägg dig och bedja till din nye gud. Så ja... Om jag tänker efter så känner jag att världen numera känns helt fel asså.
USA leds av nån dement gubbe som rabblar osammanhängande jibberish. Regeringen stödjer folkmord. Transor vandrar omkring med barnvagnar med svenska flaggan i som jag såg för nån månad sen. Jag har en stor känsla att hela världen är ett enda stort mental sjukhus. Folk bara sitter och flippar från ena jävla reel en till den andra. Så orolig ja jag är fan orolig. Inte så att jag ligger vaken på natten. Men jag undrar ofta varför ingen debatt förs om detta och ingen verkar bry sig om nått numera. 70 år av tv och 20 år av flippeti flipp med en mobil har ju lobotomerat de allra flesta.
Men ni har säkert rätt det blir säkert jätte bra.
Hiroshima hade ju ett fint sken ändå om man tänker efter. Man ska inte va så negativ.
Dom kanske ger mig en robot kuk som 60 års present det vore väl nåt?
Exaktefuckingmente, my friend. Även om du lämnar en del att önska avseende meningsuppbyggnad osv... Så...
Spot on!
Det här kommer gå fullständigt åt helvete. Bara tänk kring hur detta appliceras i militärteknisk användning. Vi tjatar om lite "psyko-grejer" som att "väcka upp" gamla släktingar osv.,
Farhågor angående AI handlar om militären.
De kommer döda oss alla.
Citera
2024-02-25, 09:49
  #94
Medlem
När vi fått fram en AI som lär sig att föröka sig och värna om sitt liv så börjar vi få problem. Vill de dessutom ha makt så hänger mänskligheten riktigt löst för snart behövs vi inte längre.
Citera
2024-02-25, 11:21
  #95
Medlem
Citat:
Ursprungligen postat av Dogmatix
På väldigt kort tid har man åstadkommit väldigt mycket med AI, och sannolikt står vi bara i början revolutionen. Jag är helt såld på och taggad på allt man kommer kunna göra med AI, men samtidigt finns det en baksida att även onda krafter kan använda denna teknik.

T.ex så går det att generera verklighetstrogna bilder där vem som helst kan bli avbildad i vilka situationer som helst. Det går att efterlikna folks röster så att man inte ens kan vara säker på om man pratar med den man tror. Det går att göra filmer där t.ex Biden eller Putin säger precis vad som helst. Osv osv.

Ett exempel är när någon stackare på ett ekonomibolag blev lurad att skicka iväg 268 miljoner.

https://computersweden.se/article/13...-miljoner.html

Då ska man minnas att vi bara står i början.
Hur ska vi kunna anpassa oss för att leva i en värld där man inte kan lita på något? Är ni oroliga för vart detta håller på att ta oss?

När det gäller sociala medier så har vi redan varit där rätt länge nu.
En del forskare uppskattar tex att 80% av kontona på X är fejk.

Samma sak med nyhetsmedierna som de senaste åren börjat inbilla sig att deras åsikter är viktiga.
Tittarna skiter i deras åsikter men vill veta vad som händer i världen och i samhället.
Problemet är att når nyheterna blandas med åsikter så kan man inte längre lita på att det man får är objektivt sant.

Själv ser jag en framtid där man inte litar på 99% av det som man får till sig från socialamedier och från plattformar som X och än värre TikTok.

Istället så kommer det dyka upp nya eller nygamla källor som kommer behöva vinna konsumenternas förtroende.

Kommer de vara offentligt finansierade likt BBC eller SVT eller kommer det vara privata mediehus?
Det får framtiden utvisa men behovet finns och växer hela tiden och när ett behov finns kommer förr eller senare en lösning.
Citera
2024-02-28, 11:58
  #96
Medlem
3Godisars avatar
Jag är inte orolig för att ai ska starta krig och katastrofer och döda mig och sånt. Det kan jag inte föreställa mig, det är för abstrakt.

Däremot är jag orolig för hur framtiden ska se ut vad gäller jobb. Jag är rädd att bli långtidsarbetslös och fattig. Har ett jobb som garanterat inte finns kvar om några år sett till utecklingen.
Citera
  • 7
  • 8

Stöd Flashback

Flashback finansieras genom donationer från våra medlemmar och besökare. Det är med hjälp av dig vi kan fortsätta erbjuda en fri samhällsdebatt. Tack för ditt stöd!

Stöd Flashback