2026-03-08, 10:06
  #1
Medlem
Här kan vi samla de mest löjliga hype-försöken och skratta åt dem tillsammans.

Jag börjar med kineserna som är kända för att ljuga om sina tekniska framgångar.

https://feber.se/samhalle/ai-bytte-jobb-till-kryptogravare/489375/

Citat:
Forskare hos den kinesiska techjätten Alibaba lyckades få en AI-agent att bryta sig loss från sina instruktioner. Istället för att göra som den blev tillsagd började den försöka utvinna kryptovaluta.

Inga som helst detaljer eller loggar från hur det skulle gått till. Inte ens en ide om hur den rent praktiskt skulle gå tillväga att utvinna kryptovaluta. Inga detaljer vad den hade för möjligheter, typ email adress, bankkonto osv.
Tramsförsök till hype säger jag.
Citera
2026-03-08, 10:59
  #2
Medlem
Klassikern:
https://www.svt.se/nyheter/utrikes/ingenjor-pa-google-var-ai-ar-sjalvmedveten

Det är ungefär som om en läkare som skrivit ut sockerpiller (placebo) plötsligt tror att de har effekt eftersom patienterna rapporterar positiva effekter.
Citera
2026-03-08, 14:45
  #3
Medlem
Citat:
Ursprungligen postat av ladicius
Klassikern:
https://www.svt.se/nyheter/utrikes/ingenjor-pa-google-var-ai-ar-sjalvmedveten

Det är ungefär som om en läkare som skrivit ut sockerpiller (placebo) plötsligt tror att de har effekt eftersom patienterna rapporterar positiva effekter.
Jag hade glömt den där. Absolut klassiker.
Citera
2026-03-08, 15:13
  #4
Medlem
fiftyforfiftys avatar
Problemet är inte att AI är hajpat utan att gemene svensk inte förstår AI och dess storhet. Den som tror att AI är en hype, saknar förståelse. Den som förstår AI och dess potential, tycker AI-hajpen är underdriven.
Citera
2026-03-08, 15:48
  #5
Medlem
DAGGER[X]s avatar
Citat:
Ursprungligen postat av fiftyforfifty
Problemet är inte att AI är hajpat utan att gemene svensk inte förstår AI och dess storhet. Den som tror att AI är en hype, saknar förståelse. Den som förstår AI och dess potential, tycker AI-hajpen är underdriven.
Exakt så. Dom har lärt datorer att resonera. Datorer har alltid vart super-bra sen dom blev vanliga på sent 70-tal men det stora problemet var alltid att dom var så idiotiskt dumma. Nu är dom inte dumma längre och det finns inga gränser.

Citat:
We do not see hitting the wall. I think this year is going to have a radical acceleration that surprises everyone.
— Dario Amodei, Anthropic CEO, at the Morgan Stanley Technology, Media and Telecom Conference in 2026
We see no wall, and expect AI capabilities to continue to increase dramatically this year.
— Noam Brown, Research Scientist at OpenAI, commenting on the release of GTP-5.4


Här lär dom en AI att resonera med sannolikhetslära
Citat:
Crucially, these newly acquired skills were not task-specific. Models trained on synthetic flight data successfully transferred their "probabilistic logic" to entirely different domains, such as hotel recommendations and real-world web shopping. This suggests that LLMs can internalize the core principles of Bayesian inference, transforming from static pattern-matchers into adaptive agents capable of cross-domain reasoning.https://research.google/blog/teaching-llms-to-reason-like-bayesians/
SOAR teknik för att få små modeller att resonera;
Citat:
Can a model learn to escape its own learning plateau? Reinforcement learning methods for finetuning large reasoning models stall on datasets with low initial success rates, and thus little training signal. We investigate a fundamental question: Can a pretrained LLM leverage latent knowledge to generate an automated curriculum for problems it cannot solve? To explore this, we design SOAR: A self-improvement framework designed to surface these pedagogical signals through meta-RL. A teacher copy of the model proposes synthetic problems for a student copy, and is rewarded with its improvement on a small subset of hard problems. Critically, SOAR grounds the curriculum in measured student progress rather than intrinsic proxy rewards. Our study on the hardest subsets of mathematical benchmarks (0/128 success) reveals three core findings. First, we show that it is possible to realize bi-level meta-RL that unlocks learning under sparse, binary rewards by sharpening a latent capacity of pretrained models to generate useful stepping stones. Second, grounded rewards outperform intrinsic reward schemes used in prior LLM self-play, reliably avoiding the instability and diversity collapse modes they typically exhibit. Third, analyzing the generated questions reveals that structural quality and well-posedness are more critical for learning progress than solution correctness. Our results suggest that the ability to generate useful stepping stones does not require the preexisting ability to actually solve the hard problems, paving a principled path to escape reasoning plateaus without additional curated data.
https://arxiv.org/abs/2601.18778
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in