Citat:
Ursprungligen postat av
BeneathTheSurface
Vad har du fått det ifrån?
Jag var lite snabb på hanen där och ögnade igenom WP-artikeln lite väl snabbt. Dessutom var det Jan Leke som tillsammans med lämnar OpenAI. Men något som tyder på att Ilya nästa projekt kan handla om AI-säkerhet är deras tidigare arbetsuppgift:
Ifrån artikeln du länkade till:
"Tillsammans med Sutskever kommer Jan Leike, som var med och ledde företagets Superalignment-team, också att lämna OpenAI, säger talespersonen Kayla Wood till The Washington Post."
Jag har även hört en intervjuv med Sam Altman där han betonade Ilyas djupta och långsiktiga tänkande och hans betoning AI-säkerhet. Dessutom är det välkänt att Ilya tror mycket på just uppskalning.
Kan han ha överreagerar på en demonstration av GPT-4o i höstas och planerna för den ytterst breda lanseringen? Iof så har tokanisering med en mängd olika modaliteter betydelse för ett framtida AGI, men GPT-4o är definitivt
inte ett AGI, (förutom att helt okunnigt folk, ändå, kan betrakta det hela som "AGI").
Men jag utesluter inte ett AGI, (I alla fall i snäv bemärkelse), innan 2030.
Men innan dess så kommer vi att få se nya modeller på "GPT-5 och GPT-6 nivå". Dessa modeller måste bli smartare om det skall bli ett AGI innan 2030. Lyckas OpenAI eller andra aktörer med det utesluter jag inte ett "GPT-6 med proto-självmedvetande", men min syn på t.ex uppkomsten av självmedvetande inkluderar en betydande socialpsykologisk komponent där frågan inte bara avgörs vad som händer inuti maskinen.