Citat:
Ursprungligen postat av
expander
Nej, det är sant att det inte är de fullständiga senaste versionerna av Chat GPT, Gemini eller Meta AI med deras fulla funktionalitet som finns att ladda ner.
Men det var inte heller det han efterfrågade, eller vad jag svarade. Han efterfrågade en nedladdningsbar AI som han kunde köra på sin dator. Och det finns mängder med sådana.
Om det räcker med någon slags AI överhuvudtaget stämmer det förstås att man kan köra det på en hemdator. Begreppet AI skapades i mitten av 50-talet, då det framförallt var symbolisk AI implementerad i Lisp som gällde. Lisp kunde man köra på tidiga hemdatorer som Apple II redan 1981, och säkert portera någon version av Eliza som man kunde konversera med. Schackprogram räknades på den tiden också som artificiell intelligens, och fanns på i princip alla hemdatorer från tidigt 80-tal.
Men personen du kommenterade pratade om AI i snävare termer, närmare bestämt samtida AI "som övervakas av onda miljardärer och drivs av stora datacenter som förgiftar luft och vatten kring sig" och funderade på om dessa skulle kunna köras på en hemdator i framtiden. ChatGPT och Grok nämndes som exempel. Ditt svar tycktes säga att detta var en föråldrad bild, eftersom valfri LLM numera kunde laddas ner och köras online, exemplifierat av ChatGPT, Gemma och Llama. Det tyckte jag var missvisande, speciellt eftersom du nämnde ChatGPT som ju faktiskt var en av de produkter som personen nämnde. Du backar lite nu och skriver att de
allra senaste versionerna av ChatGPT inte är nedladdningsbara för lokal användning, men det är ett slirande på sanningen som antyder att äldre modeller skulle gå att ladda ner. Men inte heller det verkar vara sant – i själva verket är ingen version av ChatGPT nedladdningsbar överhuvudtaget.
Då det gäller Grok, personens andra exempel, finns heller inget för nedladdning som är i närheten av dagens online-versioner (Grok-3 och Grok-4). Och även om man går tillbaka till Grok-2.5, behövs ett mindre serverkluster för att köra det lokalt (enligt Grok själv "at least 8 GPUs, each with more than 40 GB of VRAM", och därutöver minst 512 GB RAM för att hantera vikterna).
Jag tycker inte detta är hårklyverier, eftersom folk bildar sig sin uppfattning om hur kapabel dagens AI är utifrån färdigtränade modeller med stödprogramvara som vem som helst kan köra online. Om de lokalt körbara modellerna inte är kapabla på en nivå som är i närheten av dessa blir kommentarer som din rent missvisande.