Här följer en föreläsning som inte alls är tekniskt och som, ytterst förenklat, beskriver machinlearning och Lage Language's Modells. Den spelades in i december i år. Men eftersom föreläsaren talar om GPT-3 så trodde jag ett tag att den var inspelad i december 2022. Hur som helst så ger denna föreläsning en bred översikt av ämnet som lämpar sig speciellt bra för dig som kommer till detta forum utan att veta ett dugg om ML och LLM.
https://youtu.be/b76gsOSkHB4?si=xr9xWA7oIHPpWqQT
Att diskutera:
Vilka insikter ger denna föreläsning?
Är föreläsaren för pessimistisk eller en realist?
Vi blev överraskade över de "oväntade" förmågor som, enligt föreläsaren, uppkom bara genom att skala upp modellerna, mata dem med gigantiska mängder data och tillhandahålla enorm beräkningskapacitet. Är det slut på överraskningar nu eller kommer vi att på nytt bli överraskande?
Föreläsaren är benhård vad gäller möjligheten att skapa medvetna LLM:s. Är han för pessimistisk eller realist?
Hur skall vi se på begreppet Artificiell General Intelligence, (AGI)? Vad skall gränsen dras?
Föreläsaren nämner inget specifikt om säkerhets problem förutom om de bristfälliga säkerhetsramar som man försöker implementera hos modellerna, och absolut ingenting om "The alligement problem". Har det att göra med att han inte se LLM:s som mera än väldigt utvecklade "autokorrekt/ordförslag maskiner?
Lycka till med din resa för att förstå vad LLM är!
(Jag instämmer inte nödvändigtvis med allt vad föreläsaren säger. Jag tycker han är lite väl pessimistisk och lite väl slarvigt svepande när det kommer till LLM:s förmågor och i sin beskrivning av medvetandet.)
https://youtu.be/b76gsOSkHB4?si=xr9xWA7oIHPpWqQT
Att diskutera:
Vilka insikter ger denna föreläsning?
Är föreläsaren för pessimistisk eller en realist?
Vi blev överraskade över de "oväntade" förmågor som, enligt föreläsaren, uppkom bara genom att skala upp modellerna, mata dem med gigantiska mängder data och tillhandahålla enorm beräkningskapacitet. Är det slut på överraskningar nu eller kommer vi att på nytt bli överraskande?
Föreläsaren är benhård vad gäller möjligheten att skapa medvetna LLM:s. Är han för pessimistisk eller realist?
Hur skall vi se på begreppet Artificiell General Intelligence, (AGI)? Vad skall gränsen dras?
Föreläsaren nämner inget specifikt om säkerhets problem förutom om de bristfälliga säkerhetsramar som man försöker implementera hos modellerna, och absolut ingenting om "The alligement problem". Har det att göra med att han inte se LLM:s som mera än väldigt utvecklade "autokorrekt/ordförslag maskiner?
Lycka till med din resa för att förstå vad LLM är!
(Jag instämmer inte nödvändigtvis med allt vad föreläsaren säger. Jag tycker han är lite väl pessimistisk och lite väl slarvigt svepande när det kommer till LLM:s förmågor och i sin beskrivning av medvetandet.)