Citat:
Ursprungligen postat av
DirtyDiggerNick
Det här är lite spännande faktiskt. Det är fullt möjligt att implementera riktigt skarpa AI-botar och AI-motorns intelligens är fullgod men ändå så ser man oerhört mycket exempel som det som TS beskriver.
Jag skulle gissa på att det i stora organisationer finns en rädsla (iofs motiverad) att AI:t någon gång kan göra fel och att det får konsekvenser de är ansvarig för och därmed så stryper man skiten ur kundtjänstfunktionen i slutändan.
D.v.s de sätter regler som gör att du måste upprepa "avsluta tjänst" tre gånger innan du ändå kopplas till en människa som dubbelkollar att du verkligen vill avsluta tjänsten. Om de inte sätter regler så kanske en av hundra som pratar om avslutande av tjänst egentligen inte ville det och så bara vipps så avslutade AI-agenten tjänsten. Det är också ett problem.
Förutom specifika regler tror jag man också stryper ner hur hårt boten får gissa vad kunden vill till absolut 0 så att den inte ska börja hallucinera. Alla verkar (med lite lite rätt även om det vore sjukt kul) ha panik inför tanken att en kundtjänst-bot skulle rekommendera en konkurrents vara eller tjänst.
Jag lekte med ChatGPT och Claude för nåt halvår sen och gav dem den här instruktionen som jag hittade nånstans:
“Only state claims that are directly supported by well-established sources. If information is incomplete, disputed, or requires inference, say ‘unknown’ or ‘insufficient evidence’ and stop.”
Det var massor av ganska allmänna frågor de inte kunde svara på längre.