ChatGPT (Och andra språkmodeller) är generellt bra (dvs mycket mindre felaktigheter än på andra områden) på sådant det finns mycket underlag på, på nätet.
Tex grundläggande fysik, kemi, allmänna kunskap överlag, ju mer dokumenterat och lättare det är att hitta ämnet när du googlar, ju bättre är språkmodellerna på detta.
Men det faller ihop totalt om du har spetskompetens inom något eller några områden, men för att du ska genomskåda det måste du ju naturligtvis ha kunskap i området till att börja med.
Många litar blint på AI, de frågade lite allmänna faktafrågor som "normala personer" kan ha svårt att svara på, att räkna upp de 100 första decimalerna av π osv, när de dubbelkollade detta så stämde det kanske perfekt och om det inte gjorde det och de rättade modellen så erkände den omedelbart sitt fel och hade en legitim anledning eller att det rörde sig om ett missförstånd osv.
Det räcker för många för de totalt ska släppa guarden och de börjar ställa frågor om sådant som är långt över deras kompetens och förståelse, där med har absolut noll chans att verifiera uppgifterna utan i stället blint litar på det.
Prova fråga om något du har ingående kunskap om så kommer det inte dröja länge innan du stöter på rena felaktigheter, ifrågasätt inte utan öppna ett nytt chatfönster och ställ om frågan och jämför svaren, inte allt för sällan så kommer det direkta motsägelser i det ena eller det andra fallet.
Det är totalt meningslöst att resonera med en språkmodell eftersom de är tränade att vara kappvändare, du kommer oavsett du vill eller inte styra svaren mot något som bekräftar din ståndpunkt, oavsett det handlar om att du vill att språkmodeller/AI ska vara medvetet, intelligent eller tvärtom totalt odugligt meningslöst, om du vill att det ska vara PK eller rasistiskt osv, det är en algoritm som följer statistiska mönster och det är det fruktansvärt bra på, men det är statistik och inget annat som du pratar med och därför bör det inte komma som en överraskning att just modellerna är bra på sådant som det finns mycket statistiskt underlag på, precis som statistik alltid varit- ett bra verktyg att se en övergripande tendens på, det har aldrig varit ett bra verktyg för att hitta eller pinpointa specifika fall.
Jag vet att jag är som en upphakad skiva men det är så frustrerande att läsa om och om igen samma tugg cirkulera på det här forumet, saker som du inte behöver vara "världsledande AI forskare" för att själv inse, det är lite det som är så tragiskt att så få klarar tänka själva utan måste peka på "auktoriteter", speciellt när dessa auktoriteter är resultatet av massiv lobbying och propaganda.
Tex grundläggande fysik, kemi, allmänna kunskap överlag, ju mer dokumenterat och lättare det är att hitta ämnet när du googlar, ju bättre är språkmodellerna på detta.
Men det faller ihop totalt om du har spetskompetens inom något eller några områden, men för att du ska genomskåda det måste du ju naturligtvis ha kunskap i området till att börja med.
Många litar blint på AI, de frågade lite allmänna faktafrågor som "normala personer" kan ha svårt att svara på, att räkna upp de 100 första decimalerna av π osv, när de dubbelkollade detta så stämde det kanske perfekt och om det inte gjorde det och de rättade modellen så erkände den omedelbart sitt fel och hade en legitim anledning eller att det rörde sig om ett missförstånd osv.
Det räcker för många för de totalt ska släppa guarden och de börjar ställa frågor om sådant som är långt över deras kompetens och förståelse, där med har absolut noll chans att verifiera uppgifterna utan i stället blint litar på det.
Prova fråga om något du har ingående kunskap om så kommer det inte dröja länge innan du stöter på rena felaktigheter, ifrågasätt inte utan öppna ett nytt chatfönster och ställ om frågan och jämför svaren, inte allt för sällan så kommer det direkta motsägelser i det ena eller det andra fallet.
Det är totalt meningslöst att resonera med en språkmodell eftersom de är tränade att vara kappvändare, du kommer oavsett du vill eller inte styra svaren mot något som bekräftar din ståndpunkt, oavsett det handlar om att du vill att språkmodeller/AI ska vara medvetet, intelligent eller tvärtom totalt odugligt meningslöst, om du vill att det ska vara PK eller rasistiskt osv, det är en algoritm som följer statistiska mönster och det är det fruktansvärt bra på, men det är statistik och inget annat som du pratar med och därför bör det inte komma som en överraskning att just modellerna är bra på sådant som det finns mycket statistiskt underlag på, precis som statistik alltid varit- ett bra verktyg att se en övergripande tendens på, det har aldrig varit ett bra verktyg för att hitta eller pinpointa specifika fall.
Jag vet att jag är som en upphakad skiva men det är så frustrerande att läsa om och om igen samma tugg cirkulera på det här forumet, saker som du inte behöver vara "världsledande AI forskare" för att själv inse, det är lite det som är så tragiskt att så få klarar tänka själva utan måste peka på "auktoriteter", speciellt när dessa auktoriteter är resultatet av massiv lobbying och propaganda.