Articles » OpenAI får skarp kritik efter hallucinationer i AI-verktyg

OpenAI får skarp kritik efter hallucinationer i AI-verktyg

29 oktober, 2024
1 min läsning

Ny forskning visar att AI-verktyget Whisper, utvecklat av Open AI för transkribering, har betydande brister som skapar oro inom flera områden. Verktyget har visat sig ha en tendens att hallucinera, vilket innebär att det kan hitta på information som inte finns i den ursprungliga källan. 

En omfattande analys av över 26 000 transkriptioner visade att Whisper ofta lägger till felaktiga, och ibland anmärkningsvärda, detaljer. Enligt en studie från University of Michigan innehåller hela 80 procent av transkriptionerna allvarliga fel. Det handlar om allt från ogrundade, våldsamma eller rasistiska kommentarer till påhittade medicinska termer, som exempelvis “hyperaktiverad antibiotika”. 

Med tanke på att Whisper används för att dokumentera samtal mellan läkare och patienter väcker dessa misstag stor oro. Felaktiga transkriptioner i vårdmiljöer kan leda till missförstånd och riskfyllda beslut. 

OpenAI har bemött kritiken och säger sig arbeta aktivt för att förbättra Whisper genom att ta hänsyn till forskarnas resultat. En talesperson för företaget påpekar att användarfeedback är en viktig del av deras process är att uppdatera och förbättra modellen. 

Dela:

Rekommenderade artiklar

Rulla till toppen

You are currently viewing a placeholder content from HubSpot. To access the actual content, click the button below. Please note that doing so will share data with third-party providers.

More Information

You are currently viewing a placeholder content from HubSpot. To access the actual content, click the button below. Please note that doing so will share data with third-party providers.

More Information

You are currently viewing a placeholder content from HubSpot. To access the actual content, click the button below. Please note that doing so will share data with third-party providers.

More Information