Citat:
Ursprungligen postat av
trickydick
Nej det är på riktigt Anthropic lyckades läcka claudes källkod.
Det behövs bara några tusen rader Python-kod för att definiera ett LLM.
Det stora i ett LLM är istället själva modellen och den har inte läckt, alltså det neurala nätverket med miljarder parametrar. Inte heller har hemlig träningsdata läckt, som simulerade samtal och feedback från mänskliga tränare. Hade det läckt skulle andra, om de hade ett tillräckligt stort datacenter, kunna bygga i princip samma modell.
Däremot läckte en enorm mängd TypeScript‑kod, som verkar höra till kodassistenten Claude Code. Det gör att man kan förstå hur assistenten funkar och kanske bygga något som beter sig väldigt likt.
Eftersom även permissions och systempromptar har läckt kan någon analysera dem för att hitta svagheter och använda Claude till saker som egentligen ska vara spärrade.