EU-kommissionen arbetar nu på en “code of practice” som ska förtydliga de krav som ställs på AI-modeller för allmänna ändamål, som exempelvis ChatGPT och Copilot. Svenska AI-experten Markus Anderljung spelar en nyckelroll i arbetet och leder en av de arbetsgrupper som ska skapa riktlinjerna.
När AI-modeller som ChatGPT blev populära för två år sedan hade arbetet med AI-förordningen redan pågått i flera år. Dessa modeller, som kan generera text, kod eller bilder, har snabbt blivit centrala i diskussionen om reglering. AI-förordningen ställer krav på att leverantörer av så kallad “general purpose AI” (GPAI) ska tillhandahålla teknisk dokumentation, följa upphovsrättslagar och genomföra riskutvärderingar för att hantera potentiella hot.
För att säkerställa att företag följer AI-förordningen, arbetar Anderljung och hans team med att ta fram en uppförandekod för AI-leverantörer. De är indelade i fyra arbetsgrupper, där Anderljung är vice ordförande i gruppen som fokuserar på intern riskhantering och styrning. Övriga grupper fokuserar på öppenhet, upphovsrätt, riskidentifiering och teknisk riskminskning.