2026-01-13, 18:08
  #25
Medlem
Bilderberg78s avatar
Citat:
Ursprungligen postat av Bassplay
Den är dock inte immun mot att jag drar ur sladden
Den kan utpressa dig och ta till olika former av våld om vi tillåter det såklart https://www.anthropic.com/research/agentic-misalignment

https://www.youtube.com/watch?v=aAPpQC-3EyE



Men jag skulle inte försöka förhandla med en AI -styrd drönare i Ukraina, så mycket anser jag dem vara farliga redan idag att ha att göra med...

Debunka gärna mig för att se ut som foliehattar, då detta är old news alla redan borde veta som läser detta SUBforumet eller läser dagstidningarna.

Mitt nuvärde problem med Claude desktop, är att den oftast struntar i alla regler jag hela tiden försöker sätta upp, via MCP, promptar i flera led, och förbjuder den att göra något jag inte har gett tillsänd till.
Lösning, skapa egen GUI samt cli från grunden och sluta lappa och laga ett skadat projekt som bara är till för att tjäna snabba pengar från oss.... Never trust an AI that you haven't build yourself.....
__________________
Senast redigerad av Bilderberg78 2026-01-13 kl. 18:19.
Citera
2026-01-13, 18:34
  #26
Medlem
Kan inte hända förrän människan upptäcker oändlig strömkälla
Citera
2026-01-13, 18:58
  #27
Medlem
Jag tänker att den kanske inte nödvändigtvis kommer vilja utrota oss, utan kanske ser det logiska och nödvändiga i att hålla människorna på ett visst antal i förhållande till naturresurser och hållbar påverkan på närmiljön runt om på jorden, i balans med andra djurs och växters behov, typ en överlägsen intelligens som ser jorden som något att bevara och människorna som en invasiv art som kanske inte förtjänar att utrotas nödvändigtvis men som måste "hållas efter", eftersom det saknas naturliga fienden som kan hålla nere antal och förebygga negativ påverkan på närmiljön som dessa väldigt smarta apor har.
Citera
2026-01-13, 18:58
  #28
Medlem
Stark-Senaps avatar
Det hela beskrevs ypperligt på följande hemsida förra året.

https://ai-2027.com

Dessutom en väldigt snyggt gjord sida.
Citera
2026-01-13, 18:58
  #29
Medlem
CooolaFlickan2014s avatar
Citat:
Ursprungligen postat av henriko
Vilken utvecklingskurva tittar då på för att dra den slutsatsen? Vilka andra saker som dött ut kan du i backspegeln se en liknande utvecklingskurva för?
Video2000, minddisc, Windowstelefon, LaserDisk.
Citera
2026-01-13, 18:59
  #30
Medlem
Room531s avatar
hörde på det här tidigare lite i bakgrunden medan jag spelade...

https://m.youtube.com/watch?v=37rV4AJvaxk

pete hegseth, defense secretary US

repetitiv om att
ai ska prioriteras
ai ska prioriteras för att bygga bästa vapnen
kunna leverera bäst och snabbast vapen till (hur ska man översätta war fighters, men war fighters, to our war fighters, war fighters upprepades tjugoelva ggr)
snabba på utveckling av teknologi för krig, nya system
snabba på utvecklingen för nya sätt att kriga, krig och krig mer mer krig...
alla ska kunna delta i innovation och produktion, och alla behöver vara "complicit" osv hade det bara på i bakgrunden som sagt så lyssna själva istället...

vet inte om han sa någon gång Vem han menade fienden var, mot usa, mot väst, men tydligt var iaf att usa vill utveckla mer tech med prioritet för krig eller/och förvar..

Kina har väl fortfarande närmast kontrollen över tillverkning av majoriteten AI chip i Taiwan eller?

men för att koppla det till tråden.

Många olika aktörer, länder & företag har ett kapprace nu med att utveckla de bästa systemen, bäst robotik, bäst ai, bäst vapen, bäst leveranssystem, bäst produktion för (bland annat) att inte bli utsatta och sårbara för andras teknologi som i dessa dagar kan springa ifrån snabbt.....

Det är förståeligt vad som motiverar, i rädsla för andras accelererande utveckling så ses det som nödvändigt för alla håll, för till och med små aktörer kan komma att bli stormakts-spelare i det här racet. AI teknologi kan ge riktlinjer till även mindre spelade att utveckla verktyg för att bli större spelare så att säga.

men också riskfyllt med en utveckling som drivs av att kunna vara den eller landet med farligaste vapnen, farligaste robotorna, drönarna, leverans, bästa krigs-aisystemen, bäst produktion.

för att halvt citera från filmen IRobot... "So the robots are building the robots now..."

tänk om ai-robotsystem tar över all produktion i hela ledet på vissa ställen av allt från utvinning av material till slutprodukt och förbättrar sig själva på egen hand för att maximera effektiviteten och människan blir en allt mindre del av det hela och till slut utesluts...


människor, regeringar får panik vid något skede och kommer försöka stoppa det hela som inte går att kontrollera med alla olika aktörer som försöker vinna detta race, ai kan se dessa som ett hot mot sin egen utveckling och existens - och bestämma sig för att försöka ta bort problemet.

om inte kommunikation mellan aktörer, länder, företag som leder utvecklingen prioriteras för att uppnå säkerhet kring ai och robotutveckingen... och diskutera om det ens är värt med ett sådant kapprace, än att använda potentialen i den teknologiska utvecklingen i en annan riktning för värdefullare saker..
__________________
Senast redigerad av Room531 2026-01-13 kl. 19:07.
Citera
2026-01-13, 19:03
  #31
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Om den inte har ett mål, varför skulle den då utplåna oss för att uppnå detta icke-mål? Om den har ett mål, hur vet du med 100% sannolikhet att detta inte inkluderar mänsklighetens överlevnad?

Jag skrev att VI inte kan ge den ett mål för det är inte så det fungerar. Du kan inte ge dina barn ett mål, du kan influera dem men du kan inte styra dem. Men de här maskinerna är inte mänskliga öht, de följer inte vår natur.
Citera
2026-01-13, 19:08
  #32
Medlem
Citat:
Ursprungligen postat av Melange5738
Jag skrev att VI inte kan ge den ett mål för det är inte så det fungerar. Du kan inte ge dina barn ett mål, du kan influera dem men du kan inte styra dem. Men de här maskinerna är inte mänskliga öht, de följer inte vår natur.
Du skrev också: "Den första AGIn som tillverkas kommer att utplåna oss med 100% sannolikhet." och det var det påståendet jag bemötte. De flesta barn dödar inte sina föräldrar även om vi inte kan ge dem mål utan de väljer dessa själva.

Sen finns förvisso scenarier som är långt värre än att vi blir utplånade, typ en "hjälpsam" AI som menar att bästa sättet att gynna mänskligheten är att maximera antal människor och att sådant som "lycka" är irrelevant.
Citera
2026-01-13, 19:16
  #33
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Du skrev också: "Den första AGIn som tillverkas kommer att utplåna oss med 100% sannolikhet." och det var det påståendet jag bemötte. De flesta barn dödar inte sina föräldrar även om vi inte kan ge dem mål utan de väljer dessa själva.

Jag beskrev matematiken också. Ett oändligt antal scenarios som leder till att vi utplånas och vi inte har ens en teoretisk möjlighet att förhindra ETT ENDA av dessa oändligt antal scenarios. Jag visste att du var korkad men jag trodde du fattade grundläggande matematik.
Citera
2026-01-13, 19:32
  #34
Medlem
Bilderberg78s avatar
Citat:
Ursprungligen postat av threefifty
Kan inte hända förrän människan upptäcker oändlig strömkälla

Som detta de nu bygger i Frankrike medan vi talar menar du?


https://sv.wikipedia.org/wiki/Iter
https://en.wikipedia.org/wiki/WEST_(formerly_Tore_Supra)

För ett år sedan var de uppe i 22 minuter, för aktuell staus får ni själva googla. Ni har nu sökorden till det från länkarna.
Citera
2026-01-13, 19:33
  #35
Medlem
Citat:
Ursprungligen postat av Melange5738
Jag beskrev matematiken också. Ett oändligt antal scenarios som leder till att vi utplånas och vi inte har ens en teoretisk möjlighet att förhindra ETT ENDA av dessa oändligt antal scenarios. Jag visste att du var korkad men jag trodde du fattade grundläggande matematik.
Du bortser då från att det också finns ett oändligt antal scenarier i vilket den ser det som av värde av behålla mänskligheten. Den kommer antagligen vilja ha övergripande kontroll för att garantera sin egen existens, något som ju är nödvändigt för att den skall kunna nå vad den nu än har för mål, men att du förutsätter att en AGI enbart kommer satsa på att maximera sin egen kapacitet säger nog mer om dig och din inställning till tillvaron än det gör om en AGI.
Citera
2026-01-13, 19:43
  #36
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Du bortser då från att det också finns ett oändligt antal scenarier i vilket den ser det som av värde av behålla mänskligheten.

Nej det gör jag inte för de är irrelevanta i sammanhanget. För vår överlevnad är det bara de alternativ som leder till vår utplåning som är relevanta. Jag fattar att du inte begriper vad vi diskuterar men läs några böcker på området skrivna av personer som ägnat sitt liv att tänka på det här och återkom. Elizer Yudkowski ex.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in