Google Brain har utarbetat ett nytt system som kan skapa detaljerade bilder från små pixlade källbilder.
Naturligtvis, som vi alla vet, är det omöjligt att skapa mer detaljer än det finns i källbild så hur kan Google Brain göra det?
Jo med en smart kombination av två neurala nätverk.
Den första delen av nätverket försöker att kartlägga den 8 × 8 pixlar stora källbilden mot andra högupplösta bilder. Det förminskar andra högupplösta bilder till 8 × 8 pixlar och försöker göra en match.
Den andra delen av nätverket använder en implementering av PixelCNN för att försöka lägga till realistiska högupplösta detaljer till den 8 × 8 pixlar stora källbilden.
Sedan, när källbilden skalas, försöker den att lägga till nya pixlar som matchar vad det "vet" om den klassen av bild.
Till exempel, om det finns en brun pixel mot toppen av bilden, kan nätverket identifiera det som ett ögonbryn, så när bilden skalas upp, kan det fylla i luckorna med till exempel ett ögonbryn formad av en samling av bruna pixlar.
Vad jag kan se på exemplen i den bifogade länken så fungerar det med imponerande resultat.
Så länge källbilden finns ute på internet så kan man tydligen komma mycket nära originalet vid en avpixling.
Vad händer nu? Kommer pressen ersätta avpixlade bilder med någonting annat och i så fall vad?
https://arstechnica.com/information-...-zoom-enhance/
https://github.com/openai/pixel-cnn