Microsoft har nyligen introducerat ett verktyg som ska korrigera så kallade “AI-hallucinationer”, där AI skapar information som inte är baserad på fakta. Målet med verktyget är att minska felaktiga svar och säkerställa att AI-genererade texter blir mer pålitliga.
Trots den nya tekniken har många experter uttryckt tvivel över om det är möjligt att helt undvika dessa misstag. Os Keyes, doktorand vid University of Washington, framhåller att dessa hallucinationer är en del av hur generativ AI fungerar.
Verktyget, som går under namnet Correction, kan användas tillsammans med flera AI-modeller, däribland Metas Llama och OpenAI:s GPT-4. Det är en del av Microsofts större satsning på AI-säkerhet genom deras Azure AI Content Safety-program.