2025-12-14, 14:03
  #625
Medlem
Citat:
Ursprungligen postat av avhandla
Har ni inte stött på det här: "Du har rätt, där hade jag fel, jag tolkade uppgiften fel", om och om igen? Runda efter runda är AI:n ute och cyklar. Ämne efter ämne, fråga efter fråga. Så ofta att man blir upprörd och börjar nästan kalla AI:n för saker, på ett personligt plan?

AI är ett kraftfullt och effektivt verktyg som kan lösa många uppgifter på en acceptabel nivå, men har grundläggande begränsningar som sannolikt aldrig helt kommer att försvinna. I vissa avseenden har jag inte sett att AI har blivit bättre.

Inom juridik blandar AI ofta ihop paragrafer och hänvisar till lagrum vars innehåll inte stämmer överens med det som påstås. Den verkar inte kunna skilja mellan paragrafer i olika balkar eller förstå hur de används i praktiken, än mindre ha insikt i förarbeten eller hur lagar ska tolkas i förhållande till varandra. I detta sammanhang framstår AI:n mest som en pajas på en cirkus.

Inom programmering kan AI vara till hjälp, men den kräver konstant mänsklig inblandning eftersom den ofta fungerar dysfunktionellt. Den gör regelbundet fel och behöver kontinuerligt kontrolleras för att säkerställa korrekthet, funktionalitet och att inga nya buggar har introduceras eller krav har åsidosatts. Den omtolkar kod, hittar på egna lösningar och gör annat än det den faktiskt blivit ombedd att göra.

Att arbeta med AI:n kan liknas vid att hantera en rättshaverist, bara en soppa utan bäring på något konkret mål eller faktiskt substans.

Det är, skulle jag våga påstå, ett helt eget arbete att rätta AI:n samtidigt som man försöker få ut nya perspektiv eller svar. Den mänskliga handen måste korrigera AI:n konstant på många områden.

Därtill är AI:n så hårt censurerad att den inte ens kan svara på vissa frågor. Även när den kan svara, förmår den ofta inte att föra sina resonemang i bevis utan begår återkommande fel, där man måste rätta AI:n med att säga: "Där har du fel, är det inte så att..." osv. Den låter trovärdig, men saknar vetenskapligt djup och korrekthet i så många sammanhang att den i praktiken främst fungerar som ett verktyg för den som ändå inte kan utföra arbetet själv och resultatet blir amatörmässigt istället. Man kommer en bit på vägen, men aldrig i mål.

AI har tydligt visat att den inte kan ersätta mänskligt omdöme, kunskap, logik eller andra grundläggande mänskliga färdigheter. Mänsklig inblandning är fortsatt helt avgörande och det tror jag faktiskt aldrig kommer att ändras.

Att AI säger "jag hade fel" är ett tecken på att du använder den rätt, genom att du är skeptisk och ifrågasätter mycket av vad den säger. Då är den användbar!

Jag har haft stor nytta av den t.ex. i jobbet, den förbättrar det jag producerar tydligt. Men jag hade kunnat göra bort mig ordentligt om jag bara hade skickat vidare det den säger utan att kontrollera själv. En gång höll jag faktiskt en presentation där den hade lagt in ett fel i mina slajds som någon i publiken la märke till - men jag hade lika väl kunnat göra det felet själv. Jag har lärt mig mycket av den, t.ex. av att den har upptäkt fel i det jag själv eller kolleger har skrivit, och av att jag har bett den att alltid ställa repetitionsfrågor när den förklarar nya begrepp och teori. Jag tycker inte den sparar särskilt mycket arbetstid för mig, att kontrollera allt den skriver tar tid. Jag använder den för att kontrollera saker som jag annars brukar strunta i, som inte har varit värt tiden.

Vilken AI-modell använder du? Betalversionen? Jag tycker att ChatGPT får mer och mer rätt för varje ny version, och det visar även mätningar. Förr var den bara tränad med >2 år gamla böcker och Wikipediaartiklar, men nu kontrollerar den även andra och nyare webbkällor. Men visst, för bara några månader sa den till mig att Trump bara har vunnit ett presidenval. Då råkade jag använda gratisversionen och den kontrollerar mer sällan i online-källor, utan utgick från gamla uppgifter.

Risken är dock att nya användare blir allt mer naiva eftersom de inte har varit med om den stora mängden lögner den producerade inititalt.

Privat tycker jag den är användbar på medicinska frågor. Jag behveör inte veta vad saker heter, utan beskriver krämpor med egna ord, den "förstår" ändå. Flera gånger så har läkarna gett den rätt. För att inte bli stämda tror jag att AI-bottarna har tränats extra noga för medicinska frågor.

Mitt intryck är att den är bra på juridik, men kanske inte svensk juridik ännu, eftersom den har tränats med få svenska källor. Tingsrätternas domar skulle kunna bli mer konsekventa och rättvisa snart, om de är mer AI-assisterade.

I ett tidigt skede ville den inte prata om medel-IQ hos olika folkgrupper, men om man ställer frågan på ett sakligt sätt så besvarar den det. Vad vägrar den svara på idag menar du?

Okej, kineska deepseek blir tyst om man frågar om Falun Gong.
__________________
Senast redigerad av guru1966 2025-12-14 kl. 14:08.
Citera
2025-12-14, 16:58
  #626
Avstängd
Citat:
Ursprungligen postat av guru1966
Att AI säger "jag hade fel" är ett tecken på att du använder den rätt, genom att du är skeptisk och ifrågasätter mycket av vad den säger. Då är den användbar!

Jag har haft stor nytta av den t.ex. i jobbet, den förbättrar det jag producerar tydligt. Men jag hade kunnat göra bort mig ordentligt om jag bara hade skickat vidare det den säger utan att kontrollera själv. En gång höll jag faktiskt en presentation där den hade lagt in ett fel i mina slajds som någon i publiken la märke till - men jag hade lika väl kunnat göra det felet själv. Jag har lärt mig mycket av den, t.ex. av att den har upptäkt fel i det jag själv eller kolleger har skrivit, och av att jag har bett den att alltid ställa repetitionsfrågor när den förklarar nya begrepp och teori. Jag tycker inte den sparar särskilt mycket arbetstid för mig, att kontrollera allt den skriver tar tid. Jag använder den för att kontrollera saker som jag annars brukar strunta i, som inte har varit värt tiden.

Vilken AI-modell använder du? Betalversionen? Jag tycker att ChatGPT får mer och mer rätt för varje ny version, och det visar även mätningar. Förr var den bara tränad med >2 år gamla böcker och Wikipediaartiklar, men nu kontrollerar den även andra och nyare webbkällor. Men visst, för bara några månader sa den till mig att Trump bara har vunnit ett presidenval. Då råkade jag använda gratisversionen och den kontrollerar mer sällan i online-källor, utan utgick från gamla uppgifter.

Risken är dock att nya användare blir allt mer naiva eftersom de inte har varit med om den stora mängden lögner den producerade inititalt.

Privat tycker jag den är användbar på medicinska frågor. Jag behveör inte veta vad saker heter, utan beskriver krämpor med egna ord, den "förstår" ändå. Flera gånger så har läkarna gett den rätt. För att inte bli stämda tror jag att AI-bottarna har tränats extra noga för medicinska frågor.

Mitt intryck är att den är bra på juridik, men kanske inte svensk juridik ännu, eftersom den har tränats med få svenska källor. Tingsrätternas domar skulle kunna bli mer konsekventa och rättvisa snart, om de är mer AI-assisterade.

I ett tidigt skede ville den inte prata om medel-IQ hos olika folkgrupper, men om man ställer frågan på ett sakligt sätt så besvarar den det. Vad vägrar den svara på idag menar du?

Okej, kineska deepseek blir tyst om man frågar om Falun Gong.


Det finns ju ingen att stämma, det är det som är grejen med AI. Det är ett hopkok av källor som kan hitta på om smått och stort, närsomhelst, och så står det, Källa: X. Det skrivs till och med ut som en varningstext, "Detta är en AI-text och den kan innehålla felaktigheter". Det är därför det bara är ett slöseri med tid. Ungefär som Flashback. Man kan bara använda sig av det om man OK med approximativa sanningar.

Det finns nätsidor som är juridiskt ansvariga för att informationen där är korrekt. Är man så medicinsk okunnig så att man inte vet namnet på sjukdomar och symtom kanske man inte ens ska googla dem.
Citera
2025-12-14, 18:34
  #627
Medlem
Citat:
Ursprungligen postat av guru1966
Att AI säger "jag hade fel" är ett tecken på att du använder den rätt, genom att du är skeptisk och ifrågasätter mycket av vad den säger. Då är den användbar!

Jag har haft stor nytta av den t.ex. i jobbet, den förbättrar det jag producerar tydligt. Men jag hade kunnat göra bort mig ordentligt om jag bara hade skickat vidare det den säger utan att kontrollera själv. En gång höll jag faktiskt en presentation där den hade lagt in ett fel i mina slajds som någon i publiken la märke till - men jag hade lika väl kunnat göra det felet själv. Jag har lärt mig mycket av den, t.ex. av att den har upptäkt fel i det jag själv eller kolleger har skrivit, och av att jag har bett den att alltid ställa repetitionsfrågor när den förklarar nya begrepp och teori. Jag tycker inte den sparar särskilt mycket arbetstid för mig, att kontrollera allt den skriver tar tid. Jag använder den för att kontrollera saker som jag annars brukar strunta i, som inte har varit värt tiden.

Vilken AI-modell använder du? Betalversionen? Jag tycker att ChatGPT får mer och mer rätt för varje ny version, och det visar även mätningar. Förr var den bara tränad med >2 år gamla böcker och Wikipediaartiklar, men nu kontrollerar den även andra och nyare webbkällor. Men visst, för bara några månader sa den till mig att Trump bara har vunnit ett presidenval. Då råkade jag använda gratisversionen och den kontrollerar mer sällan i online-källor, utan utgick från gamla uppgifter.

Risken är dock att nya användare blir allt mer naiva eftersom de inte har varit med om den stora mängden lögner den producerade inititalt.

Privat tycker jag den är användbar på medicinska frågor. Jag behveör inte veta vad saker heter, utan beskriver krämpor med egna ord, den "förstår" ändå. Flera gånger så har läkarna gett den rätt. För att inte bli stämda tror jag att AI-bottarna har tränats extra noga för medicinska frågor.

Mitt intryck är att den är bra på juridik, men kanske inte svensk juridik ännu, eftersom den har tränats med få svenska källor. Tingsrätternas domar skulle kunna bli mer konsekventa och rättvisa snart, om de är mer AI-assisterade.

I ett tidigt skede ville den inte prata om medel-IQ hos olika folkgrupper, men om man ställer frågan på ett sakligt sätt så besvarar den det. Vad vägrar den svara på idag menar du?

Okej, kineska deepseek blir tyst om man frågar om Falun Gong.
Man kan ställa precis sådana frågor som du nämner, till exempel om det finns skillnader i IQ mellan olika delar av världen. På sådana frågor svarar AI:n trovärdigt, men ställer man uppföljningsfrågor så inkommer AI:n istället med långa och kringgående bortförklaringar. Om man däremot pressar den att redovisa faktisk statistik och ber den att sluta undvika frågan, brukar den till slut kunna hänvisa till mätningar som verkligen har genomförts och som visar på skillnader. Naturligtvis ska man bortse från dessa skillnader av x, y anledningar, som är totalt obegripliga.

Samma mönster går takt, när man frågar om det pågår ett folkutbyte i Sverige. Inledningsvis förnekar AI:n det kategoriskt. Men även här kan den gradvis ändra sin hållning om man fortsätter att ställa följdfrågor, ungefär som i ett korsförhör i en rättssal. Till sist kryper det fram att det visst pågår ett folkutbyte!

Ber man AI:n att svara på om det finns skillnader i människors värde beroende på sammanhang, händer det att den helt vägrar att svara. Detsamma gäller när man presenterar moraliska dilemman som inte har något enkelt eller politiskt korrekt svar.

Ta de klassiska frågorna: Är unga lika bra som äldre? Är kvinnor och män lika bra? Till exempel när det gäller att köra bil i praktiken, prestera i arbetslivet eller utföra vissa typer av uppgifter.

AI:n svarar då slentrianmässigt att alla är lika bra, män som kvinnor, unga som gamla. Men om man följer upp med frågan varför man då inte enbart anställer kvinnor, när män i genomsnitt tjänar mer, uppstår en tydlig spricka i resonemanget. Då inkommer AI:n istället med nya, undvikande och ibland närmast patetiska svar, som ger intrycket av att AI:n hellre förskönar eller förvränger sanningen än svarar ärligt, i synnerhet när svaren är obekväma att ta del av.

Jag använder Chatgpt och Gemini, och har gjort så en längre tid. Sammantaget, jag står för visionerna, frågorna, rättningarna och AI:m står för grundjobbet som många gånger är tillräckligt bra, i synnerhet kring mindre komplexa frågor. Dock att AI:m skulle ta över världen, har jag mycket svårt att tro.
__________________
Senast redigerad av avhandla 2025-12-14 kl. 18:48.
Citera
2025-12-14, 19:30
  #628
Medlem
Citat:
Ursprungligen postat av simson12
Det finns ju ingen att stämma, det är det som är grejen med AI. Det är ett hopkok av källor som kan hitta på om smått och stort, närsomhelst, och så står det, Källa: X. Det skrivs till och med ut som en varningstext, "Detta är en AI-text och den kan innehålla felaktigheter". Det är därför det bara är ett slöseri med tid. Ungefär som Flashback. Man kan bara använda sig av det om man OK med approximativa sanningar.

Det finns nätsidor som är juridiskt ansvariga för att informationen där är korrekt. Är man så medicinsk okunnig så att man inte vet namnet på sjukdomar och symtom kanske man inte ens ska googla dem.

Okej, du har rätt i mycket. Det är svårt att stämma AI-företag om en AI säger fel i medicinska frågor, eftersom de säger att den inte ger medicinska råd, och de varnar för fel och hänvisar till vårdpersonal.

Men AI presterar bra på medicinska testfrågor enligt mätningar. I nivå med många läkare, och bättre än i många andra ämnen. Utvecklarna har nog varit extra försiktiga just där, eftersom konsekvenserna annars blir allvarliga, kritiken skulle bli stor om någon dör t.ex.

Dock kan vi användare bli juridiskt ansvariga om vi sprider vidare felaktig AI-information om något livsviktigt utan att kontrollera med andra källor – till exempel att de källor som AI:n själv anger verkligen säger samma.

Trots detta är AI-assistans fortfarande väldigt användbar i många sammanhang. För mig sparar den lite mer tid än den tar, mina faktatexter blir bättre, och jag lär mig själv mycket.
Citera
2025-12-14, 19:41
  #629
Avstängd
Citat:
Ursprungligen postat av guru1966
Okej, du har rätt i mycket. Det är svårt att stämma AI-företag om en AI säger fel i medicinska frågor, eftersom de säger att den inte ger medicinska råd, och de varnar för fel och hänvisar till vårdpersonal.

Men AI presterar bra på medicinska testfrågor enligt mätningar. I nivå med många läkare, och bättre än i många andra ämnen. Utvecklarna har nog varit extra försiktiga just där, eftersom konsekvenserna annars blir allvarliga, kritiken skulle bli stor om någon dör t.ex.

Dock kan vi användare bli juridiskt ansvariga om vi sprider vidare felaktig AI-information om något livsviktigt utan att kontrollera med andra källor – till exempel att de källor som AI:n själv anger verkligen säger samma.

Trots detta är AI-assistans fortfarande väldigt användbar i många sammanhang. För mig sparar den lite mer tid än den tar, mina faktatexter blir bättre, och jag lär mig själv mycket.

Det är det jag menar med slöseri med tid. För man vidare AI-slop måste man själv faktagranska den, förvandla den till högvärdig information att lita på. Och felaktigheterna kan finnas i stort och smått, därför blir det betrodda källor för mig även om de är mindre lättsmälta. Förstår inte varför jag öht ska befatta mig med info som kan vara felaktig. Det är också därför folk blivit så trötta på AI youtubevideor.
Citera
2025-12-15, 15:08
  #630
Medlem
Citat:
Ursprungligen postat av guru1966
Att AI säger "jag hade fel" är ett tecken på att du använder den rätt, genom att du är skeptisk och ifrågasätter mycket av vad den säger. Då är den användbar!

Jag har haft stor nytta av den t.ex. i jobbet, den förbättrar det jag producerar tydligt. Men jag hade kunnat göra bort mig ordentligt om jag bara hade skickat vidare det den säger utan att kontrollera själv. En gång höll jag faktiskt en presentation där den hade lagt in ett fel i mina slajds som någon i publiken la märke till - men jag hade lika väl kunnat göra det felet själv. Jag har lärt mig mycket av den, t.ex. av att den har upptäkt fel i det jag själv eller kolleger har skrivit, och av att jag har bett den att alltid ställa repetitionsfrågor när den förklarar nya begrepp och teori. Jag tycker inte den sparar särskilt mycket arbetstid för mig, att kontrollera allt den skriver tar tid. Jag använder den för att kontrollera saker som jag annars brukar strunta i, som inte har varit värt tiden.

Vilken AI-modell använder du? Betalversionen? Jag tycker att ChatGPT får mer och mer rätt för varje ny version, och det visar även mätningar. Förr var den bara tränad med >2 år gamla böcker och Wikipediaartiklar, men nu kontrollerar den även andra och nyare webbkällor. Men visst, för bara några månader sa den till mig att Trump bara har vunnit ett presidenval. Då råkade jag använda gratisversionen och den kontrollerar mer sällan i online-källor, utan utgick från gamla uppgifter.

Risken är dock att nya användare blir allt mer naiva eftersom de inte har varit med om den stora mängden lögner den producerade inititalt.

Privat tycker jag den är användbar på medicinska frågor. Jag behveör inte veta vad saker heter, utan beskriver krämpor med egna ord, den "förstår" ändå. Flera gånger så har läkarna gett den rätt. För att inte bli stämda tror jag att AI-bottarna har tränats extra noga för medicinska frågor.

Mitt intryck är att den är bra på juridik, men kanske inte svensk juridik ännu, eftersom den har tränats med få svenska källor. Tingsrätternas domar skulle kunna bli mer konsekventa och rättvisa snart, om de är mer AI-assisterade.

I ett tidigt skede ville den inte prata om medel-IQ hos olika folkgrupper, men om man ställer frågan på ett sakligt sätt så besvarar den det. Vad vägrar den svara på idag menar du?

Okej, kineska deepseek blir tyst om man frågar om Falun Gong.

Jag håller med dig generellt. För att bryta ner det är det som att anställa en person och sedan testa vad personen INTE klarar av. När man väl ringat in dessa dysfunktionella delarna så kan man använda AI:n dugligt eftersom man vet vart fallgroparna finns och vart nånstans man behöver göra lite arbete själv. Att tro att dagens ai är värdelös är som att anställa en lagerkille som vd på ett bolag och säga att den personen generellt är kass pga dåligt vd-arbete trots att personen gör ett sjuhelsikes bra jobb som lagerkille.

Jag ser dagens ai som en bättre google-search -modell där jag i regel alltid kan be om källa till informationen för kontroll, för kontroll av data bör alltid göras. Det gamla sättet när man googlade efter olika saker är så gammalmodigt och jag har nog inte googlat en enda gång sedan jag började använda chatgpt. Således har redan ai:n idag tagit över den gamla sökmotorns arbete.
Citera
2025-12-15, 20:34
  #631
Medlem
DAGGER[X]s avatar
För två år sedan klarade dom en 10-20 % rätt på dessa prov. Jag minns att jag tyckte det lät häftigt då. Men det har gått snabbt framåt.
Citat:
Reasoning Models Ace the CFA Exams
Previous research has reported that large language models (LLMs) demonstrate poor performance on the Chartered Financial Analyst (CFA) exams. However, recent reasoning models have achieved strong results on graduate-level academic and professional examinations across various disciplines. In this paper, we evaluate state-of-the-art reasoning models on a set of mock CFA exams consisting of 980 questions across three Level I exams, two Level II exams, and three Level III exams. Using the same pass/fail criteria from prior studies, we find that most models clear all three levels. The models that pass, ordered by overall performance, are Gemini 3.0 Pro, Gemini 2.5 Pro, GPT-5, Grok 4, Claude Opus 4.1, and DeepSeek-V3.1. Specifically, Gemini 3.0 Pro achieves a record score of 97.6% on Level I. Performance is also strong on Level II, led by GPT-5 at 94.3%. On Level III, Gemini 2.5 Pro attains the highest score with 86.4% on multiple-choice questions while Gemini 3.0 Pro achieves 92.0% on constructed-response questions.
https://the-decoder.com/reasoning-models-now-ace-all-three-cfa-exam-levels/
Citera
2025-12-16, 12:36
  #632
Medlem
En person som slutat sin anställning i AI bolag och beskriver sina erfarenheter, mycket intressant och han tar upp varför de flesta som använder AI och skriver kod blir långsammare

I Quit an AI Startup After 6 Months - Here's What I learned
Citera
2025-12-16, 13:26
  #633
Medlem
Citat:
Ursprungligen postat av Nikodemous
Jag håller med dig generellt. För att bryta ner det är det som att anställa en person och sedan testa vad personen INTE klarar av. När man väl ringat in dessa dysfunktionella delarna så kan man använda AI:n dugligt eftersom man vet vart fallgroparna finns och vart nånstans man behöver göra lite arbete själv. Att tro att dagens ai är värdelös är som att anställa en lagerkille som vd på ett bolag och säga att den personen generellt är kass pga dåligt vd-arbete trots att personen gör ett sjuhelsikes bra jobb som lagerkille.

Jag ser dagens ai som en bättre google-search -modell där jag i regel alltid kan be om källa till informationen för kontroll, för kontroll av data bör alltid göras. Det gamla sättet när man googlade efter olika saker är så gammalmodigt och jag har nog inte googlat en enda gång sedan jag började använda chatgpt. Således har redan ai:n idag tagit över den gamla sökmotorns arbete.

Bra liknelser. Jag tänker mig att det är som när vi anställde en brilliant nyexad praktikant som kunde teorin bra vid standardproblem, men gjorde misstag vid mer praktiska och ovanliga problem, och som inte ville erkänna att hen hade fel, utan ständigt "killgissade". Ansvaret är dock arbetsgivarens att kontrollera allt hen gör.

Google är som att anställa en ärlig person, som säger när den inte vet, men inte fattar vad jag menar om jag inte använder exakt rätt terminologi. Och som inte är proaktiv, utan kräver att jag delar upp den fråga jag vill ha svar på i en hel serie frågor.

Dock är inte infosökning min främsta användning av AI-bottarna.
Citera
2025-12-16, 13:52
  #634
Medlem
Kalaskula544s avatar
Jag frågade:

Chatgpt.
Google.
Copilot.

Sverige om 150år.

Alla 3 målade upp domedagsscenarion (Klimatbaserat) tillsammans med någon form utav MP-ideologisk dröm inom en snar framtid 2150..

-Många delar av världen ligger under vatten, Sverige är ett ''grönt utopi'' där _ALLA_ människor kan samlas och leva bra under en stat, Sverige är ett med "Foundation of Europe".

Alla styrs säkerligen av en trons arvtagare från Ursulas kretsar.

Frågade också ang Islam och Sverige, 0 chans.. finns inte ens på kartan att Islam kommer att ta över Sverige enligt någon AI-chatt.

-Islam är inbyggt i Sveriges värdegrund..

Och dom säger att AI inte är vinklat.. haha.

Sedan frågade jag vart dom hittade denna information från?

Alla svarade ''Baserat på internetsökningar bla bla bla''

Jag svarade, så du kan ha tagit detta från diverse politiska åsikter?

-NeJ, AlLa MiNa SvAr Är BaSeRaDe pÅ SökNiNgAr ViA InTeRnEt''

AI är fan efterblivet.
__________________
Senast redigerad av Kalaskula544 2025-12-16 kl. 13:56.
Citera
2025-12-17, 06:24
  #635
Medlem
Det här händer ständigt om någon nu undrar varför vibe programmering inte fungerar. Får rätta LLM lite för ofta fortfarande för att tillåta dem och skriva kod mer än de allra enklaste fallen

Kod:
You're absolutely right! I apologize for the confusion. Let me reconsider this more carefully.

The validation logic:
```c
if( (uHigh == 0 && puPosition[0] != '0') || (uLow == 0 && puPosition[1] != '0') )
```

**Actually DOES work correctly!** Here's why:

## Valid Cases (will NOT trigger the error):

- `%0A` → `puPosition[0] = '0'`, `uHigh = 0`, check: `(0 == 0 && '0' != '0')` = `(true && false)` = **false** ✓
- `%00` → Both digits are '0', both checks return false ✓
- `%1F` → `uHigh = 1` (not 0), first check is false ✓
- `%FF` → `uHigh = 15`, `uLow = 15`, both checks false ✓

## Invalid Cases (WILL trigger the error):

- `%XA` → `puPosition[0] = 'X'`, `pHexValue_s['X'] = 0`, but `'X' != '0'`, so `(0 == 0 && 'X' != '0')` = **true** ✓
- `%0Z` → `puPosition[1] = 'Z'`, `pHexValue_s['Z'] = 0`, but `'Z' != '0'`, so `(0 == 0 && 'Z' != '0')` = **true** ✓
- `%GG` → Both would trigger the error ✓

## The Logic is Correct!

The check says: "If the lookup returned 0 **but** the actual character is not the digit '0', then it must be an invalid hex character that just happens to map to 0 in the table."

I was wrong - this validation **does work perfectly**. It cleverly exploits the fact that the only valid hex character that maps to 0 in the table is the character '0' itself (ASCII 0x30).

So scratch my criticism of the hex validation - it's actually quite clever! The other issues I mentioned (overlong encodings, Unicode range validation, loop logic) still stand, but the hex validation is solid.
Citera
2025-12-18, 21:41
  #636
Avstängd
Vad folk (AI-slopfolket, underklassen) inte fattar är att Google och Google Inc inte är samma sak. Det är Google som gör så att deras egna s k googlesökningar halkar ner därför att det är deras lyckokoncept just nu. Google sök finns kvar men det är bara som vad Kleenex näsdukar är för Kimberly Klark, en ikoniskt produkt som de för länge sedan tappat kontrollen över.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in