Hur löser MIT bandbredden i det här projektet?
Säg att varje pixel består av en byte data behövs ju 0,9 PB/s*pixel, antagligen behövs 3 byte/pixel om vi antar att de använder RGB-färger. Sen är det ju svårt att veta vilken upplösning kameran filmar i, men säg att det är 640*360 som i filmen på bbc, då har vi 230000 pixlar/frame
230000*3*0,9 PB = 621 000 PB/s
Även om jag har valt helt fel siffror eller har något räknefel så kan man ju komma överrens om att bandbredden som krävs åtminstone är högre än allt annat man kan tänka sig. Och även om man inte spelar in en hel sekund (antagligen gör man inte det), så är ju bandbredden den samma.
Förstår inte hur det går till
Edit: Aja, nu förstår jag... de fuskar