Ny forskning visar att AI-verktyget Whisper, utvecklat av Open AI för transkribering, har betydande brister som skapar oro inom flera områden. Verktyget har visat sig ha en tendens att hallucinera, vilket innebär att det kan hitta på information som inte finns i den ursprungliga källan.
En omfattande analys av över 26 000 transkriptioner visade att Whisper ofta lägger till felaktiga, och ibland anmärkningsvärda, detaljer. Enligt en studie från University of Michigan innehåller hela 80 procent av transkriptionerna allvarliga fel. Det handlar om allt från ogrundade, våldsamma eller rasistiska kommentarer till påhittade medicinska termer, som exempelvis “hyperaktiverad antibiotika”.
Med tanke på att Whisper används för att dokumentera samtal mellan läkare och patienter väcker dessa misstag stor oro. Felaktiga transkriptioner i vårdmiljöer kan leda till missförstånd och riskfyllda beslut.
OpenAI har bemött kritiken och säger sig arbeta aktivt för att förbättra Whisper genom att ta hänsyn till forskarnas resultat. En talesperson för företaget påpekar att användarfeedback är en viktig del av deras process är att uppdatera och förbättra modellen.