Nej, jg tror inte att det blir något till AI-vinter som så.
Verktygen som redan finns är redan enormt användbara och har god potential för att raffinerad och integreras ytterligare. Och inget trovärdigt pekar på att utvecklingen kommer stanna snart.
Dessutom har man börjar komma framåt med generering av syntetisk data.
https://www.moveworks.com/us/en/reso...pment?hl=sv-SE
Det var t.ex. så som kinesiska DeepSeek finstämde några tidigare små modeller, som går köra på vanlig speldatorer.
Kortfattat så använde de större modeller för att generera syntetisk data som existerande modeller, t.ex. Qwen och Llama, kunde tränas lite ytterligare med och öka prestandan, utan att de blev mer tungkörda.
Resonerande AI är också en grej, för hindren du nämner förutsätter att man stenhårt kör på första generationens språkmodeller (om vi räknar sedan transformerarkitekturen), då de ganska torrt genererade text rakt av från vad användaren hade promptat. Förenklat, iallafall.
DeepSeek R1, Gemini 2.0 Flash Thinking och GPT o3 är sådana modeller som börjat sniffa lite på konceptet med goda resultat, men även där finns det god utvecklingspotential.