Citat:
Ursprungligen postat av
PetterRetard
Frågeställning:
Är det vettigt att låta en teknologi mänskligheten inte alls förstår, ta över allt mer kvalificerade uppgifter i samhället?
Kan man lita på något man inte förstår?
Vilka är riskerna med att låta något vi inte förstår, som vi inte förstår vad den har för mål eller värderingar, sköta vår ekonomi, vår sjukvård, vår utbildning, osv allt som visionen är att AI ska fullända åt oss?
Kan man lita på något man inte förstår? Tja, i 1 miljon år litade människorna på årstidernas cykler trots att man inte ens förstod att jorden roterar runt solen. Ett tag trodde man till och med tvärt om, att solen roterar runt jorden. Det är alltså resultatet som räknas.
(Hur många förstår hur en bil fungerar? Ändå kör vi runt med dem som om det vore "säkert" att den bromsar när vi vill).
Så svaret på den frågan är väl definitivt: "JA!"
Sedan kommer det väl en tid då AI-algoritmerna börjar få ett eget liv och ett eget medvetande. "Singularity-moment". Men det kan inte ske med de algoritmer vi har idag.
Dagens AI svarar bara på dina frågor. Den tar inte egna initiativ, den utvecklas inte utan vår inblandning, den har inget medvetande.
För 50 år sedan, när kalkylarket kom, tyckte folk att den hade någon form av "intellilgens". För hur kunde den annars veta hur stor månadskostnaden var vid ett annuitetslån (till exempel). Det var liksom lite magi att man matade in några belopp och genast hade den svaret!
ChatGPT och LLM i allmänhet fungerar på samma sätt, bara med mer datorkraft.
Så riskerna är samma som med vilken programvara som helst. Den kan innehålla fel, den kan svara fel, den kan användas där den inte passar att användas.
Slutligen: Kan man låta dessa algoritmer ta över viktiga uppgifter i samhället?
Där blir det lite darwinism: Några kommer försöka, Amish och andra kommer kämpa emot. Vi får väl se vem som vinner.
PS! En dag kommer TS farhågor troligen besannas. men antagligen inte under vår livstid. DS!