Citat:
Ursprungligen postat av
nerdnerd
Varför i allsin dar tror du att AI skulle vara mer objektiv? AI gör som den blivit tränad. Om den t ex tränas med alla varningar som hittills delats ut på Flashback så kommer den ju försöka hitta mönster i det. Kanske t ex att användare som kallar sig "negern" och liknande ska ha fler varningar än andra. Skojar verkiigen inte alls. Det finns verkliga exempel på där AI har använts för att sålla bland arbetssökande, där det visade sig att kvinnor dömdes ut jmf m precis lika kvalificerade män -- därför att det mönstret ju fanns i AIns maskininlärning. Ska AI användas är det alltså helt avgörande med en jäkligt god kvalitet i indata. Dvs att t ex admins först skulle sitta och gå igenom varenda jäkla varning som getts hittills och sortera ut de rätt bedömda.
Använd inte AI som någon jäkla religion. AI är inte en ofelbar Gud. AI är bara en korkad maskin. AI är INTE lösningen på inkonsekventa varningar, eller i varje fall inte någon enkel lösning.
Mja. Den behöver inte tränas på tidigare varningar. Den behöver "bara" kunna resonera sig fram från grunden. Problemet är att AI kan inte göra tillförlitliga normativa bedömningar. För det handlar fortfarande om att försöka få en riktning. Vilket innebär att det måste finnas ett godtycke för att kunna korrigera kursen.
Förtydligande: När jag skriver godtycke så syftar jag på den personliga bedömningen mods gör i det enskilda fallet, se svar från admin5:
(FB) Klagomål på Gason och Rostighink
Jag gjorde en GPT för trådrubriker. Jag hade väldigt kul när jag skrev den. Men vissa utfall blev absurda.
(FB) Briascca fortsätter ändra trådrubriker hur som helst
Den utgick från två premisser:
Premiss 1: Uppgifter som inte är direkt föremål för diskussionen är inte nödvändiga för rubriken
Premiss 2: Uppgifter som saknas i rubriken och används som argument för en viss fråga utgör ett ställningstagande för rubriksättarens åsikt
Och jämförde det med trådrubriken utifrån regelverkets text med bifogad text i trådstarten. Det var ett spännande experiment.
Men jag förordar inte att man släpper en AI fritt på ett forum. Den kräver alltid human-in-the-loop för att säkerställa att den inte löper amok, så som du illustrerade med ditt exempel. Vilket innebär att moderatorernas arbete skulle visserligen minska i arbetsbörda, men skulle innebära att de slutar tänka på vad de gör. För någon annan har redan gjort det åt dig. Du bara "godkänner". Och det är en farlig utveckling. Att uppmuntra reflexmässigt beteende i större utsträckning.
Jämför det med Facebook där mods hade tio sekunder på sig att bedöma rätt/fel
https://www.flashback.se/artiklar/3914/facebooks-hemliga-riktlinjer-lackta