Articles » Amerikanska staten ska granska AI-modeller innan lansering

Amerikanska staten ska granska AI-modeller innan lansering

1 september, 2024
1 min läsning

OpenAI och Anthropic har inlett ett samarbete med U.S AI Safety Institute för att stärka säkerheten kring deras AI-modeller. Samarbetet innebär att den amerikanska myndigheten får tillgång till att granska och testa företagens AI-modeller innan lansering. 

U.S. AI Safety Institute, som bildades 2023, har som uppgift att bedöma hur AI påverkar samhälleliga aspekter som jämlikhet, rättigheter och arbetsmarknaden. Genom detta avtal med OpenAI och Anthropic får myndigheten möjlighet att identifiera och hantera potentiella säkerhetsrisker kopplade till AI. 

Dessutom kommer U.S AI Safety Institute att samarbeta med Storbritanniens motsvarande institut, U.K. AI Safety Institute. Detta för att ge företagen återkoppling om hur deras modeller kan göras säkrare. Målet med samarbetet är att säkerställa att de AI-system som släpps på marknaden är så säkra och pålitliga som möjligt.

Dela:

Rekommenderade artiklar

Det amerikanska AI-företaget Runway, som utvecklar AI-teknologi för videoredigering, står nu inför allvarliga anklagelser. Enligt rapporter från nyhetssajten 404 Media ska företaget ha använt videor från Youtube för att träna sin AI-modell, utan att först inhämta tillstånd från upphovsrättsinnehavarna.  Bevis pekar på att Runway har använt tusentals videoklipp från framstående innehållsskapare och stora varumärken. Bland […]...
Den amerikanska delstaten Texas har lämnat in en stämning mot teknikjätten Meta, och anklagat företaget för att ha samlat in biometrisk data om användare utan deras medgivande. Denna insamling ska ha skett genom en automatisk ansiktsigenkänningsfunktion på Facebook, rapporterar CNBC. ...
Rulla till toppen
[hubspot type="form" portal="25956766" id="df5e2f69-aa0a-4b73-86f8-40f6f1ec3f6b"]
[hubspot type="form" portal="25956766" id="6e7a8f47-8c80-430d-a8f2-2f604b659753"]
[hubspot type="form" portal="25956766" id="ced0a3ad-cf65-4b64-8ffd-aad6bb0535d5"]