Citat:
Ursprungligen postat av
hank1338
Det är terminologin du använder som blir felaktig i sammanhanget. T ex för att "ChatGPT" öht ska kunna läsa din mail så krävs där en integration i form av ett API med endpoint som den kan ansluta till. AI ramverk är för övrigt till stor nytta för att träna ai agenter på diverse modelleringar samt inom arbetslivet för att kunna kontrollera och sätta policies på användarnivå (Copilot för att nämna ett exempel). Vad menar du med drifta stora system? Pratar vi replikerade databaser på ett par terabyte som har applikations och API integrationer så är svaret nej.
ChatGPT är inte bara ett LLM utan en tjänst som innefattar API-integrationer via OAuth 2.0. Därför kan jag skriva “show my upcoming calendar events” och då hämtas information från min Google-kalender och visas i chatten.
Min arbetsgivare har dock stängt av integrationen mot Microsoft Teams och Outlook; annars hade jag kunnat be ChatGPT sända meddelanden den vägen. Istället kan man använda MS Copilot för det ändamålet. Tidigare kunde jag även få dagliga sammanfattningar av outlook-kalendern, men ChatGPT är i dagsläget ingen fullvärdig autonom, schemalagd agent utan arbetar reaktivt på användarens initiativ. Den har dock ett begränsat agentic behaviour.
Du pratar om AI-ramverk för modellträning och enterprise-AI (t.ex. Copilot-liknande lösningar), medan jag pratar om AI-agent-ramverk, såsom Open Claw eller LangChain. Dessa underlättar implementation av AI-bottar och AI-agenter, dvs innehåller loopar som genererar nya promptar till ett LLM, anropar verktyg och kommunicerar med omvärlden på eget initiativ. T.ex. med maskiner eller olika nättjänster.
Har du någon ide om vad det kan användas till?
När jag sa ”stora system” menade jag i detta sammanhang många eller komplexa AI-agenter som samverkar och koordineras, och inte klassisk backend-drift som databaser i terabyteskala. Agent-ramverk underlättar implementation av sådanna AI-agenter, men är inte nödvändiga för enklare AI-agenter.