Citat:
Ursprungligen postat av
Xenonen
Återigen försöker du tala om för en superintelligent AI vad som är optimalt för den. Du vet inte dess mål och vad den ser som optimalt.
Men jag fattar vad som är
suboptimalt även om jag inte fattar vad som är optimalt.
Citat:
Folk har akvarier. Vad får de för intellektuell stimulans av en guldfisk?
Jag tror inte det finns någon som gör det p.g.a intellektuell stimulans så jag tvivlar på att du förstår vad ordet betyder.
Citat:
Du missar fortfarande helt poängen: vad vi vill kommer inte spela minsta roll i det läget. AI:n gör som den vill.
...och därför behöver vi inte oroa oss vad det innebär?
Citat:
Återigen: det är du som tänker binärt: antingen fortsätter människorna vara i kontroll eller också utplånar AI:n oss. För dig finns inga mellanting.
Jag säger att den kommer att utplåna oss som konsekvens av att den hamnar i kontroll, inte nödvändigtvis för att den vill göra det. Du är en sån person som jag antar inte förstår den typen av logik men jag gör ett taffligt försök: förstår du att Palestina inte utplånas som konsekvens av att Israel vill utplåna Palestina utan av andra orsaker?
Citat:
Här förstår jag inte alls hur du tänker? Är det den superintelligenta AI:n som skulle oroa sig för att vi kom på något supervapen den inte kunde skydda sig mot?
Skulle du trycka på avfyrningsknappen av ett vapen som aldrig testats om du tänkte att det var 1% risk att hela världen sprängdes när du tryckte på knappen? Även om 1% är en väldigt liten risk, med tanke på vad konsekvenserna är, är 1% verkligen en så liten risk?