2025-12-21, 07:08
  #1
Medlem
AI‑glasögon + Windows: varför finns inte ett komplett system ännu?


Efter en konversation med Copilot:

"""Full Windows‑styrning via AI‑glasögon – hur nära är vi?
Man kan redan idag se sin Windows‑skärm i glasögon som XREAL, Rokid eller Meta Quest, och man kan fjärrstyra datorn via RDP eller Moonlight. Det går också att använda en vanlig mus, en handkontroll eller enklare geststyrning. Men allt detta är separata delar — det finns fortfarande inget komplett system där glasögonen själva fungerar som ett sammanhållet Windows‑gränssnitt.

Varför finns inget “Windows‑glasögon‑OS”?
Eye‑tracking i glasögon är gjord för att förstå vad du tittar på, inte för att styra en mus med pixelprecision. Fjärrstyrning kräver extremt låg latens och stabil uppkoppling. Det saknas dessutom en gemensam standard som översätter gester, blick och huvudrörelser till Windows‑kommandon. Hårdvaran i glasögon är också begränsad av små kameror, batteri och värme.


Hur skulle man styra muspekaren?

Blickstyrning är snabb men för känslig. Huvudrörelser fungerar men är långsammare. Handtracking kräver bra ljus. En extern mus fungerar alltid men är inte särskilt “glasögon‑naturlig”.
Din idé med en liten IR‑sändare på handen är faktiskt en av de mest realistiska lösningarna: stabil tracking, låg latens och låg energiförbrukning. Man skulle dessutom kunna använda den andra handen som en “musmatta” i luften, där IR‑punkten rör sig över en virtuell yta. Det skulle ge en mer intuitiv och exakt kontroll än ren gesttracking - och det är fullt möjligt tekniskt, även om ingen har byggt det som färdig produkt ännu."""



En liten (plast?) "musmatta(+virtuell)" på i den handen du inte styr kursorn med i Windows



Så försök komma på hur man skulle kunna förbättra eller utveckla detta.ök komma på hur man skulle kunna förbättra eller utveckla detta.a eller utveckla detta.
__________________
Senast redigerad av HayabusaMannen 2025-12-21 kl. 07:49.
Citera
2025-12-21, 08:08
  #2
Medlem
En uppföljningsinlägg av Copilot AI:


Det känns som att vi redan har 80 % av tekniken för att kunna köra Windows helt och hållet via AI/AR‑glasögon. Vi kan se skärmen, vi kan fjärrstyra datorn, och vi kan koppla in vilken mus eller handkontroll som helst. Det som saknas är att allt sitter ihop i ett enda system som känns naturligt att använda.
Det mest intressanta är egentligen hur man ska styra muspekaren. Blickstyrning och handtracking finns, men inget av det är tillräckligt exakt. En liten IR‑sändare på handen, och att använda den andra handen som en “musmatta” i luften, känns som en lösning som faktiskt skulle kunna funka i praktiken.
Tekniken finns – den är bara inte ihopbyggd ännu.



En mer avancerad version:


em
När någon bygger detta — ett “AR Input Abstraction Layer” — då kommer Windows‑glasögon att gå från gimmick till verkligt arbetsverktyg.[/spoiler]glasögon att gå från gimmick till verkligt arbetsverktyg.[/spoiler]
Citera
2025-12-21, 08:17
  #3
Medlem
Redan på 80-talet så var jag med i ett projekt där förlamade skulle kunna styra med ögonen och det fungerade. Jag vet inte varför detta inte har slagit igenom i stor skala sedan dess.

Troligen ligger svaret i att användargränssnitten som vi använder idag är inte så smidiga och kompatibla med att styra via ögonen. I vart fall kan man ganska snabbt peka på att det går långsammare. För en som är förlamad och inte har några alternativ, så är det överkomligt att det går långsammare.

Men ett praktiskt problem är att styra via glasögon och med ögonen är att avgöra när man bara tittar eller vill "klicka" på något. Lättast att genomföra det är att man har en yta för att läsa och en annan yta för att agera dvs klicka, skriva etc.

Iallafall, jag ser fram emot att skaffa mig glasögon där jag blixtsnabbt kan ta reda på massa saker om andra människor jag möter på gatan. Det är mer eller mindre en revolution i vår sociala samvaro.
Citera
2025-12-21, 08:42
  #4
Medlem
Produktnamn (arbetsnamn): ARIAL – AR Input Abstraction Layer System


🥽 1. Glasögonen (hårdvaran du redan äger)
Produkten kräver inga specialglasögon. Den fungerar med:
• XREAL Air / Air 2
• Rokid Max
• Meta Quest 3 / Quest Pro
• Framtida AR‑glasögon med kamera + IMU
Glasögonen är bara display + sensorer.
All intelligens ligger i ARIAL‑systemet.

🖐️ 2. IR‑handmodulen (den lilla prylen du bär)
Det här är den enda fysiska komponenten som ARIAL lägger till.
Utseende:
• Stor som en tumnagel
• Fästs på ovansidan av handen med en tunn rem eller magnetpatch
• Innehåller en liten IR‑LED + IMU
• Batteritid: 20–30 timmar
• Laddas via magnetkontakt eller liten docka
Funktion:
• Skickar en ren IR‑punkt som glasögonens kamera kan tracka
• IMU ger extra stabilitet och prediktion
• Extremt låg latens
• Kräver nästan ingen energi
Det är i princip en mini‑version av ett motion‑capture‑system, fast för konsumenter.

✋ 3. “Musmattan i luften” (din andra hand)
Den andra handen fungerar som en virtuell arbetsyta.
Så här fungerar det:
• Du håller den andra handen stilla i en bekväm position
• ARIAL definierar automatiskt en virtuell yta ovanför handflatan
• IR‑punkten rör sig över denna yta → musrörelse
• Tryck med fingrarna → klick
• Dra IR‑punkten → drag
• Två fingrar → scroll
• Håll IR‑punkten stilla → högerklick
Det känns som att använda en laptop‑trackpad, men i luften.

🧠 4. ARIAL‑mjukvaran (hjärtat i systemet)
Det här är den verkliga innovationen.
ARIAL gör tre saker:
A. Samlar in alla AR‑signaler
• Blick
• Head‑pose
• Handtracking
• IR‑punkt
• IMU‑data
• Depth‑map (om glasögonen har det)
B. Filtrerar och predikterar
• Brusreducering
• Stabilisering
• Intent‑detektion
• Latenskompensation
• Acceleration/precision‑modeller
Det är här magin händer.
C. Översätter till Windows‑kommandon
• Cursor‑delta
• Klick
• Drag
• Scroll
• Textmarkering
• Högerklick
• Modifierare (Ctrl, Shift, Alt via gester)
Detta är AR Input Abstraction Layer – ett OS‑lager som Windows aldrig haft.

🖥️ 5. Windows‑delen (drivrutin + app)
På Windows installeras en liten app som:
• Tar emot ARIAL‑kommandon
• Emulerar mus/tangentbord
• Hanterar latens och prioritering
• Visar status (batteri, tracking, yta)
• Låter dig kalibrera “musmattan”
Det fungerar som en virtuell HID‑enhet.

🚀 6. Hur det känns att använda produkten
Scenario:
Du sitter på ett tåg, café eller hotellrum.
1. Tar på dig glasögonen
2. Ser din Windows‑skärm i luften
3. Sätter IR‑modulen på handen
4. Håller upp andra handen som musmatta
5. Styr Windows lika exakt som med en fysisk mus
Det känns naturligt, precist och snabbt.

🎯 7. Varför detta är realistiskt
• IR‑tracking är billigt och exakt
• IMU‑fusion är standardteknik
• AR‑glasögon har redan kameror
• Windows accepterar HID‑emulering
• Latens kan hållas under 10–15 ms
• Ingen avancerad AI krävs
Det är mer en ingenjörsprodukt än en forskningsprodukt.

🧩 8. Varför ingen har byggt det ännu
• Alla tillverkare fokuserar på egna ekosystem
• Ingen tjänar pengar på att göra Windows bättre
• AR‑marknaden är fortfarande fragmenterad
• Ingen har tänkt i termer av input‑abstraktionllverkare fokuserar på egna ekosystem
• Ingen tjänar pengar på att göra Windows bättre
• AR‑marknaden är fortfarande fragmenterad
• Ingen har tänkt i termer av input‑abstraktion;marknaden är fortfarande fragmenterad
• Ingen har tänkt i termer av input‑abstraktion
Citera
2025-12-21, 10:19
  #5
Medlem
Ni kan kopiera allt från mitt tidigare inlägg och fråga nån AI som Grok eller Copilot. "Vad tycker du om den här iden?".

Ladies & gentlemen: ARIAL (beta)
__________________
Senast redigerad av HayabusaMannen 2025-12-21 kl. 10:57.
Citera
2025-12-21, 13:03
  #6
Medlem
kalkryggars avatar
Nu orkar man inte sitta och läsa all din AI-text (av förståeliga skäl). Så kanske missar men det finns redan bra styrning av pointern via olika handkontroller.

Jag var för några år sen på en mässa där de hade en smart grej. Det var visserligen en vanlig skärm (var tänkt för konferens-skärm). Alla deltagare kan ha en handkontroll så ingen behöver bord och alla kan stå upp. Sen styr du muspekaren med ögonen (eller handkontrollen). Hemligheten var att när du vill styra musen med ögonen så håller du in en knapp. Då får inte muspekaren panik när alla tittar på skärmen.
Citera
2025-12-21, 13:34
  #7
Medlem
Citat:
Ursprungligen postat av kalkryggar
Nu orkar man inte sitta och läsa all din AI-text (av förståeliga skäl). Så kanske missar men det finns redan bra styrning av pointern via olika handkontroller.

Jag var för några år sen på en mässa där de hade en smart grej. Det var visserligen en vanlig skärm (var tänkt för konferens-skärm). Alla deltagare kan ha en handkontroll så ingen behöver bord och alla kan stå upp. Sen styr du muspekaren med ögonen (eller handkontrollen). Hemligheten var att när du vill styra musen med ögonen så håller du in en knapp. Då får inte muspekaren panik när alla tittar på skärmen.

Det du såg på mässan var eye-tracking + knapp för konferensrum. Det funkar där det funkar. ARIAL är något helt annat och gjort för när du är på språng: Du sätter en liten tumnagelstor IR-pryl (med LED + IMU) på handen.
Sen använder du valfri yta som musmatta – handflatan, låret, armstödet, luften – vad som helst.

IR-punkten trackas av glasögonens vanliga kamera → du får muspekare med <1 mm precision och <15 ms latens. Klick, scroll, drag, högerklick – allt känns som en perfekt laptop-trackpad i luften. Fungerar med alla AR-glasögon som har kamera idag: XREAL Air 2 / Air 2 Ultra, Rokid Max / AR Joy / AR Lite, Viture Pro / One, RayNeo X2, Meta Quest 3 / Quest Pro (passthrough), TCL NXTWEAR S+ och alla kommande modeller som bara har en RGB-kamera och IMU. Alltså helt märkesoberoende – ett öppet input-lager som gör vilken kamera-glasögon som helst till en riktig Windows-dator.

Jag tror till och med att något helt nytt glasögonmärke inom 1 år lanserar sina glasögon med ARIAL inbyggt från start och bara skriver “mus ingår i handen”. Då är det kört för alla andra. Det är inte ännu en handkontroll.
Det är grejen som gör att du faktiskt kan lämna laptopen hemma 2026.
Citera
2025-12-21, 13:49
  #8
Medlem
kalkryggars avatar
Citat:
Ursprungligen postat av HayabusaMannen
Det du såg på mässan var eye-tracking + knapp för konferensrum. Det funkar där det funkar. ARIAL är något helt annat och gjort för när du är på språng: Du sätter en liten tumnagelstor IR-pryl (med LED + IMU) på handen.
Sen använder du valfri yta som musmatta – handflatan, låret, armstödet, luften – vad som helst.

IR-punkten trackas av glasögonens vanliga kamera → du får muspekare med <1 mm precision och <15 ms latens. Klick, scroll, drag, högerklick – allt känns som en perfekt laptop-trackpad i luften. Fungerar med alla AR-glasögon som har kamera idag: XREAL Air 2 / Air 2 Ultra, Rokid Max / AR Joy / AR Lite, Viture Pro / One, RayNeo X2, Meta Quest 3 / Quest Pro (passthrough), TCL NXTWEAR S+ och alla kommande modeller som bara har en RGB-kamera och IMU. Alltså helt märkesoberoende – ett öppet input-lager som gör vilken kamera-glasögon som helst till en riktig Windows-dator.

Jag tror till och med att något helt nytt glasögonmärke inom 1 år lanserar sina glasögon med ARIAL inbyggt från start och bara skriver “mus ingår i handen”. Då är det kört för alla andra. Det är inte ännu en handkontroll.
Det är grejen som gör att du faktiskt kan lämna laptopen hemma 2026.

Nej det jag talar om var inte bara en knapp. Du kopplar sensorer på fingrarna och använder det för olika funktioner. Samt att du styrde muspekaren med ögonen (som givetvis var eye-tracking). De hade också att du kunde styra musen som helhet med bara ögonen.

Det är i princip samma sak som det du säger bara det att du flyttar det in i glasögonen. Något jag sett liknande glasögon för också fast jag såg något där de visade filmer/tv i glasögonen. De slipar linserna så det ser ut som att du ser på en stor skärm som ser ut att vara 1-2 meter framför dig. Men jag tycker inte att bilden var så bra och de sa att det är vanligt att folk mår illa av det.

Men det finns ju nu dynamiska glasögon som anpassar sig efter hur bra/dåligt du ser och ger dig perfekt syn. Så mycket händer på det området nu.
Citera
2025-12-21, 14:55
  #9
Medlem
Citat:
Ursprungligen postat av kalkryggar
Nej det jag talar om var inte bara en knapp. Du kopplar sensorer på fingrarna och använder det för olika funktioner. Samt att du styrde muspekaren med ögonen (som givetvis var eye-tracking). De hade också att du kunde styra musen som helhet med bara ögonen.

Det är i princip samma sak som det du säger bara det att du flyttar det in i glasögonen. Något jag sett liknande glasögon för också fast jag såg något där de visade filmer/tv i glasögonen. De slipar linserna så det ser ut som att du ser på en stor skärm som ser ut att vara 1-2 meter framför dig. Men jag tycker inte att bilden var så bra och de sa att det är vanligt att folk mår illa av det.

Men det finns ju nu dynamiska glasögon som anpassar sig efter hur bra/dåligt du ser och ger dig perfekt syn. Så mycket händer på det området nu.


Det du beskriver är absolut en intressant lösning – men det ligger i en helt annan kategori än ARIAL. Det du såg var i princip:
• eye‑tracking som styr pekaren
• finger‑sensorer för gester
• en handkontroll som aktiverar input
• ett system byggt för konferensrum eller stationära skärmar
Det är alltså ett interaktionssätt för en fast miljö där man står still och tittar på en skärm.
ARIAL löser ett helt annat problem:
ARIAL = en ersättning för mus/trackpad när du är på språng
Det är inte eye‑tracking, inte handkontroller, inte fingerhandskar.
Det är ett input‑lager som gör att du kan använda Windows var som helst – utan bord, utan mus, utan kontroller.
Här är skillnaderna:

1. ARIAL använder inte ögonstyrning som primär input – men kan kombinera det
Eye‑tracking är bra för att peka ut saker, men inte för precisionsarbete.
Du vill inte klicka, dra fönster eller markera text med ögonen.
Men:
ARIAL kan absolut kombinera eye‑tracking + IR‑input.
Exempel:
• titta på ett fönster → ARIAL vet vilket du menar
• finjustera och klicka med IR‑punkten → exakt som en trackpad
• scrolla med två fingrar i luften
• markera text med IR‑punkten
Det blir som “gaze‑to‑select + hand‑to‑act”.
Det är en väldigt stark kombination, men ARIAL är inte beroende av det.

2. ARIAL kräver inga handkontroller eller fingerhandskar
Det du beskriver bygger på sensorer på fingrarna och en fysisk kontroll.
ARIAL kräver bara:
• en tumnagelstor IR‑pryl på handen
Du behöver inte hålla något eller bära något stort.

3. ARIAL är märkesoberoende
Det du såg var ett slutet system.
ARIAL fungerar med:
• XREAL
• Rokid
• Viture
• RayNeo
• Quest (via passthrough)
• TCL
• och alla framtida glasögon med kamera + IMU
Det är ett universellt input‑lager, inte en produkt för en specifik skärm.

4. ARIAL är gjort för mobilitet – inte konferensrum
Det du beskriver är för att stå framför en skärm och aktivera input med en knapp.
ARIAL är för:
• tåg
• café
• hotellrum
• soffan
• resor
Du får Windows‑skärmen i luften och styr den som med en trackpad.

5. ARIAL handlar inte om displaytekniken
Slipade linser, bildkvalitet och illamående är en helt annan diskussion.
ARIAL är inte ett glasögonprojekt.
Glasögonen är bara:
• skärm
• kamera
• IMU

Resten gör ARIAL – AR Input Abstraction Layer System


(Detta är fortfarande i alpha version så den kommer bli bättre)
__________________
Senast redigerad av HayabusaMannen 2025-12-21 kl. 15:24.
Citera
2025-12-21, 19:43
  #10
Medlem
kalkryggars avatar
Citat:
Ursprungligen postat av HayabusaMannen
Det du beskriver är absolut en intressant lösning – men det ligger i en helt annan kategori än ARIAL. Det du såg var i princip:
• eye‑tracking som styr pekaren
• finger‑sensorer för gester
• en handkontroll som aktiverar input
• ett system byggt för konferensrum eller stationära skärmar
Det är alltså ett interaktionssätt för en fast miljö där man står still och tittar på en skärm.
ARIAL löser ett helt annat problem:
ARIAL = en ersättning för mus/trackpad när du är på språng
Det är inte eye‑tracking, inte handkontroller, inte fingerhandskar.
Det är ett input‑lager som gör att du kan använda Windows var som helst – utan bord, utan mus, utan kontroller.
Här är skillnaderna:

1. ARIAL använder inte ögonstyrning som primär input – men kan kombinera det
Eye‑tracking är bra för att peka ut saker, men inte för precisionsarbete.
Du vill inte klicka, dra fönster eller markera text med ögonen.
Men:
ARIAL kan absolut kombinera eye‑tracking + IR‑input.
Exempel:
• titta på ett fönster → ARIAL vet vilket du menar
• finjustera och klicka med IR‑punkten → exakt som en trackpad
• scrolla med två fingrar i luften
• markera text med IR‑punkten
Det blir som “gaze‑to‑select + hand‑to‑act”.
Det är en väldigt stark kombination, men ARIAL är inte beroende av det.

2. ARIAL kräver inga handkontroller eller fingerhandskar
Det du beskriver bygger på sensorer på fingrarna och en fysisk kontroll.
ARIAL kräver bara:
• en tumnagelstor IR‑pryl på handen
Du behöver inte hålla något eller bära något stort.

3. ARIAL är märkesoberoende
Det du såg var ett slutet system.
ARIAL fungerar med:
• XREAL
• Rokid
• Viture
• RayNeo
• Quest (via passthrough)
• TCL
• och alla framtida glasögon med kamera + IMU
Det är ett universellt input‑lager, inte en produkt för en specifik skärm.

4. ARIAL är gjort för mobilitet – inte konferensrum
Det du beskriver är för att stå framför en skärm och aktivera input med en knapp.
ARIAL är för:
• tåg
• café
• hotellrum
• soffan
• resor
Du får Windows‑skärmen i luften och styr den som med en trackpad.

5. ARIAL handlar inte om displaytekniken
Slipade linser, bildkvalitet och illamående är en helt annan diskussion.
ARIAL är inte ett glasögonprojekt.
Glasögonen är bara:
• skärm
• kamera
• IMU

Resten gör ARIAL – AR Input Abstraction Layer System


(Detta är fortfarande i alpha version så den kommer bli bättre)

Det du säger att jag menar är fortfarande inte det jag menar. Du hittar på att jag menar saker som inte stämmer av någon anledning.

Det jag talar om är inte alls bundet som du talar om som exempel. Du lägger till att jag menar att man släpar på någon stor klump. Det är helt fel.

Att styra pointern med ögonen vill man förresten visst göra. Det är superbra ihop med sensorerna på fingrarna. Det har jag testat lite olika lösningar med. Bland annat en svensk tjej som sökte pengar för upstart och presenterade sin idé. Där ingick det eye-tracking och det var en av de grejer som hon presenterade en liten test av och som en test så var det riktigt grymt. Att du menar att precisionen skulle vara dålig med eye-tracking begriper jag inte alls vad du menar med. Den är grym.

Det jag beskrev var en tänkt affärsplan de hade där det skulle rikta sig mot konferens och mobilt samarbete. Att någon kunde sitta på stranden och koppla upp sig via en dator, platta eller mobiltelefon. Man kunde åka tåg, sitta på café eller hemma i badkaret.
Citera
2025-12-21, 19:44
  #11
Medlem
kalkryggars avatar
Citat:
Ursprungligen postat av SecretGarden352
Redan på 80-talet så var jag med i ett projekt där förlamade skulle kunna styra med ögonen och det fungerade. Jag vet inte varför detta inte har slagit igenom i stor skala sedan dess.

Troligen ligger svaret i att användargränssnitten som vi använder idag är inte så smidiga och kompatibla med att styra via ögonen. I vart fall kan man ganska snabbt peka på att det går långsammare. För en som är förlamad och inte har några alternativ, så är det överkomligt att det går långsammare.

Men ett praktiskt problem är att styra via glasögon och med ögonen är att avgöra när man bara tittar eller vill "klicka" på något. Lättast att genomföra det är att man har en yta för att läsa och en annan yta för att agera dvs klicka, skriva etc.

Iallafall, jag ser fram emot att skaffa mig glasögon där jag blixtsnabbt kan ta reda på massa saker om andra människor jag möter på gatan. Det är mer eller mindre en revolution i vår sociala samvaro.

Eye-tracking finns redan i produkter för olika saker. Exempelvis så finns det för de som har dyslexi.
Citera
2025-12-21, 20:10
  #12
Medlem
Citat:
Ursprungligen postat av kalkryggar
Det du säger att jag menar är fortfarande inte det jag menar. Du hittar på att jag menar saker som inte stämmer av någon anledning.

Det jag talar om är inte alls bundet som du talar om som exempel. Du lägger till att jag menar att man släpar på någon stor klump. Det är helt fel.

Att styra pointern med ögonen vill man förresten visst göra. Det är superbra ihop med sensorerna på fingrarna. Det har jag testat lite olika lösningar med. Bland annat en svensk tjej som sökte pengar för upstart och presenterade sin idé. Där ingick det eye-tracking och det var en av de grejer som hon presenterade en liten test av och som en test så var det riktigt grymt. Att du menar att precisionen skulle vara dålig med eye-tracking begriper jag inte alls vad du menar med. Den är grym.

Det jag beskrev var en tänkt affärsplan de hade där det skulle rikta sig mot konferens och mobilt samarbete. Att någon kunde sitta på stranden och koppla upp sig via en dator, platta eller mobiltelefon. Man kunde åka tåg, sitta på café eller hemma i badkaret.

Det jag försöker förklara är bara att det du beskriver och ARIAL tillhör två helt olika kategorier.

Det du pratar om är i princip:
• eye‑tracking som styr pekaren
• sensorer på fingrarna för gester

Och absolut – eye‑tracking kan vara väldigt exakt. Jag säger inte att det är dåligt.
Det jag menar är att eye‑tracking inte är optimalt som primär mus‑input i Windows, eftersom det är svårt att göra pixelprecision, textmarkering, drag, scroll osv. med bara ögonen.

Men här är det viktiga:
ARIAL kan också använda eye‑tracking – men på ett annat sätt.
I ARIAL används eye‑tracking för att välja saker, inte för att styra markören hela vägen.
Det blir: Gaze‑to‑select
→ titta på det du vill interagera med Hand‑to‑act
→ finjustera, klicka, scrolla, dra med IR‑punkten

Det är samma princip som används i avancerade XR‑system:
ögonen väljer, handen utför.

Det är snabbare och mer exakt än att göra allt med bara ögonen.
ARIAL är alltså inte en gestlösning och inte ett VR‑system.
Det är ett input‑lager som ersätter mus/trackpad när du är på språng – tåg, café, hotellrum, soffan – utan bord och utan fysisk mus.

Och det är här den stora skillnaden kommer in:
Med ARIAL får du en flytande Windows‑skärm i AR‑glasögonen som du kan ta med dig precis som en laptop – fast utan själva laptopen.
Du öppnar glasögonen, och din Windows‑desktop svävar framför dig i perfekt storlek, oavsett var du sitter.
Det är också märkesoberoende och funkar med alla AR‑glasögon som har kamera + IMU.

Så jag säger inte att det du beskriver är fel eller dåligt.
Jag säger bara att ARIAL löser ett annat problem, med en annan metod.
Och ja – eye‑tracking kan absolut vara en del av ARIAL, bara inte som huvudinputen.
__________________
Senast redigerad av HayabusaMannen 2025-12-21 kl. 20:14.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in