Citat:
Ursprungligen postat av
Observerare
Censur? Det handlar om PageRank och andra proprietära algoritmer som ska ge relevanta träffar, vilket innebär att samma sajt dyker upp om och om igen, beroende på perspektiv. Givetvis finns det inte sex, sju eller åtta miljarder hemsidor som avhandlar stormningen av Kapitolium, utan träffarna avser ”January” och ”6” i kombination och var för sig, och algoritmerna försöker luska ut vad den som söker är ute efter. Därför framhärdar Bing och andra sökmotorer samma sidor, därför att algoritmerna antar att någon söker efter relevanta svar, inte en förhoppning om att en konspirationsteori ska infrias, eller en massa sidor som avhandlar månaden januari eller siffran sex.
Det förklarar dock inte varför en simpel paginering förändrar antalet träffar. Hade man varit ute efter att spara prestanda och/eller erbjuda de bästa sökträffarna, hade man förhindrat möjligheten att bläddra framåt mer än säg 50 sidor i träfflistan. Antalet totala träffar borde aldrig förändras på samma sökning, oavsett vilken sida man är på.
Sedan, om man tittar på del två, blir det ännu mer kryptiskt. Där visar han på att sökträffarna är exakt samma på alla sidor i slutet av träfflistan. Det är ingen slump att det är så, utan ett medvetet designbeslut.
Problemet här är "relevanta svar". Det har funkat förr, så varför fungerar det inte nu? Tekniken tillåter och möjliggör det, så det är mänskliga beslut bakom det hela. Utan att vara speciellt konspiratorisk av sig, så är det lättare att styra en befolkning om man kan styra den information de kan ta del av.
Hur kommer det sig att de "relevanta" svaren är så lika i både Bing och Google? Att upprepningen av träffar är likadan? En sak är att det sker när det gäller kontroversiella ämnen, men "pancakes"? Det är då det blir lite ögonbrynshöjande.