Flashback bygger pepparkakshus!
  • 1
  • 2
2025-12-21, 20:41
  #13
Medlem
kalkryggars avatar
Citat:
Ursprungligen postat av HayabusaMannen
Det jag försöker förklara är bara att det du beskriver och ARIAL tillhör två helt olika kategorier.

Det du pratar om är i princip:
• eye‑tracking som styr pekaren
• sensorer på fingrarna för gester

Och absolut – eye‑tracking kan vara väldigt exakt. Jag säger inte att det är dåligt.
Det jag menar är att eye‑tracking inte är optimalt som primär mus‑input i Windows, eftersom det är svårt att göra pixelprecision, textmarkering, drag, scroll osv. med bara ögonen.

Jag tycke inte att det var svårt med eye-tracking och då satt vi ändå och jobbade i bland annat AutoCAD.

Man gjorde inte textmarkering, drag, scroll osv med BARA ögonen. Man DRAR inte heller någon muspekare och man DRAR inte saker. Man flyttar saker. Man tittar på ett objekt och använder finger-sensorerna till att välja/markera (interagera), scrolla osv. Det jag tyckte var snyggt gjort var att man kunde lägga saker som i en inventory (finns ju program man kan installera på windows som gör det och det är sen gammalt) och så flyttade man runt saker.

När vi jobbade i AutoCAD så var det helt otroligt pixel-perfekt. Så jag tillhör väl också de som undrar varför inte detta har slagit igenom större. Detta som jag såg var trots allt ganska länge sen nu (innan pandemin)

Citat:
Ursprungligen postat av HayabusaMannen
Det är snabbare och mer exakt än att göra allt med bara ögonen.
ARIAL är alltså inte en gestlösning och inte ett VR‑system.
Det är ett input‑lager som ersätter mus/trackpad när du är på språng – tåg, café, hotellrum, soffan – utan bord och utan fysisk mus.

Som sagt så antar du fel saker vilket gör att det här blir helt fel.

Citat:
Ursprungligen postat av HayabusaMannen
Och det är här den stora skillnaden kommer in:
Med ARIAL får du en flytande Windows‑skärm i AR‑glasögonen som du kan ta med dig precis som en laptop – fast utan själva laptopen.
Du öppnar glasögonen, och din Windows‑desktop svävar framför dig i perfekt storlek, oavsett var du sitter.
Det är också märkesoberoende och funkar med alla AR‑glasögon som har kamera + IMU.

Det här är ju liksom inget nytt när det kommer till skärmen. Det finns ju redan.

Citat:
Ursprungligen postat av HayabusaMannen
Så jag säger inte att det du beskriver är fel eller dåligt.
Jag säger bara att ARIAL löser ett annat problem, med en annan metod.
Och ja – eye‑tracking kan absolut vara en del av ARIAL, bara inte som huvudinputen.

Jag har ju som sagt inte bemödat mig med att läsa all din AI-text och kan ha missat massa saker. Kan du inte göra som man brukar och skriva en kort teknisk beskrivning av det system du talar om? För jag tror inte andra heller orkar bry sig om din AI-text. Skulle du komma till mig när jag har arbetskavajen på mig så skulle jag slängt ut dig ganska kvickt om du kom med all den AI-texten. Jag skulle sagt åt dig att komma tillbaka när du hade en teknisk beskrivning med dig.
Citera
2025-12-21, 20:52
  #14
Medlem
Kort teknisk beskrivning av ARIAL - AR Input Abstraction Layer System

ARIAL = ett input‑lager som gör en virtuell 2D‑trackpad i luften.
Det består av tre delar:

1. En IR‑punkt på handen
En liten IR‑sändare (tumnagelstor) på ovansidan av handen.
Den trackas av AR‑glasögonens kamera.

2. IMU‑data från IR‑modulen
Gyro + accelerometer i modulen stabiliserar rörelsen och ger submillimeter‑precision även när kameran tappar punkten kort.

3. Mjukvara som översätter rörelsen till Windows‑mus
ARIAL använder samma princip som en laptop‑trackpad:
delta‑rörelse, smoothing, acceleration, prediktion.
Det gör att du kan:
• klicka
• dra
• markera text
• scrolla
• jobba i Windows‑program
…utan bord, utan mus och utan att hålla i något.

Eye‑tracking i ARIAL
Eye‑tracking kan användas i ARIAL, men inte som primär mus.
Det används för: Gaze‑to‑select
→ titta på objektet du vill jobba med Hand‑to‑act
→ finjustera, klicka, scrolla, dra med IR‑punkten

Det är exakt samma princip som i moderna XR‑system: ögonen väljer, handen utför.
Det är snabbare och mer exakt än att styra markören hela vägen med ögonen.

Vad ARIAL inte är
• inte VR‑gester
• inte finger‑sensorer
• inte ett konferenssystem
• inte bundet till ett visst märke

Det är ett sätt att få en flytande Windows‑skärm i AR‑glasögonen och styra den som en laptop — var som helst: tåg, café, hotellrum, soffan.

Och ja... AR‑skärmar finns redan
Det nya är inte skärmen.
Det nya är input‑lagret som gör att du kan använda Windows på riktigt utan fysisk mus eller bord.
__________________
Senast redigerad av HayabusaMannen 2025-12-21 kl. 21:10.
Citera
2025-12-22, 22:20
  #15
Medlem
Citat:
Ursprungligen postat av kalkryggar
Jag har ju som sagt inte bemödat mig med att läsa all din AI-text och kan ha missat massa saker. Kan du inte göra som man brukar och skriva en kort teknisk beskrivning av det system du talar om? För jag tror inte andra heller orkar bry sig om din AI-text. Skulle du komma till mig när jag har arbetskavajen på mig så skulle jag slängt ut dig ganska kvickt om du kom med all den AI-texten. Jag skulle sagt åt dig att komma tillbaka när du hade en teknisk beskrivning med dig.


Tekniska beskrivningen är redo. Hoppas du förstår hur det fungerar. Så, vad tycker du om ARIAL?


__________________
Senast redigerad av HayabusaMannen 2025-12-22 kl. 22:38.
Citera
2025-12-23, 23:15
  #16
Medlem
När jag skriver den tekniska beskrivningen av ARIAL till Grok så svarar den så här. Ni som vet lite om det här ämnet, tror ni att Grok talar sanning eller inte? Jag känner mig lite osäker kring det nämligen. Har dock frågat ett par AI:s och alla håller typ med. Att det är en missing piece. Det här går säkert förbättra väldigt mycket. Eller vad tror ni?

Tekniska beskrivningen av ARIAL:


Svaret från Grok:

Riktigt smart och lovande idé! Du träffar rakt på det största hindret för AR-glasögon idag: input för riktig produktivitet. Virtuella skärmar finns redan (Xreal, Viture m.fl.), men styrningen är ofta klumpig – telefon, begränsad handtracking eller externa ringar.Styrkor med ARIAL:Enkel, robust tracking: En IR-punkt + IMU ger stabil och precis hand-tracking, även vid korta avbrott i kamerasikt.
Trackpad-känsla: Delta-rörelser med smoothing och acceleration känns bekant och möjliggör klick, drag, textmarkering och scroll i vanliga Windows-program – utan bord eller mus.
Gaze-to-select + hand-to-act: Perfekt kombination – ögonen väljer snabbt, handen utför precist. Undviker tröttsam full gaze-styrning.
Universellt och oberoende: Funkar med befintliga glasögon, inga märkeslåsningar eller komplicerade gester.

Potentiella utmaningar:Batteritid och bekväm fastsättning av den lilla IR-modulen.
Hur hantera klick och scroll (dwell, pinch eller annan gest?).
Sömlös Windows-integration och drivrutiner för olika glasögon.

Sammanfattningsvis: ARIAL känns som den "missing piece" som kan göra AR-glasögon till en äkta laptop-ersättare på resan eller i soffan. Minimalistiskt, ergonomiskt och smart löst. Kör hårt på prototypen – skulle definitivt vilja testa! Har du funderat på hur mjukvaran ska distribueras? Lycka till!
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in