Välj en sida

Det krävs samordning för att utvecklingen av AI ska göra det möjligt att upprätthålla säkerheten och se till att systemen kan integreras smidigt i samhället. Det skriver Open AI:s grundare Sam Altman, ordförande Greg Brockman och chefsforskare Ilya Sutskever i ett blogginlägg.

I inlägget skriver de att det troligen kommer att behövas någon form av internationell tillsynsmyndighet som kan ”inspektera systemen, kräva revisioner, testa om de uppfyller säkerhetsnormerna, införa restriktioner för utbyggnadsgrad och säkerhetsnivåer och så vidare”.

Som jämförelse pekar de på IAEA, FN:s officiella organ för internationellt samarbete kring kärnkraft. Även om en sådan modell kanske inte kan komma in och slå ut en dålig aktör sål den ändå fastställa och följa upp internationella standarder och avtal ”vilket åtminstone är en utgångspunkt” skriver de.

Regleringen och tillsynen bör rikta in sig på de riktigt kraftfulla systemen – all AI ska regleras på samma vis. De som arbetar med öppen källkod för att utveckla modeller som ligger under en ”betydamde kapacitetströskel” bör undantas.

”Däremot kommer de system som vi oroar oss för att få en makt som överstiger all teknik som ännu inte skapats, och vi bör vara försiktiga så att inte urvattnar fokuseringen på dem genom att tillämpa liknande standarder på teknik som ligger långt under denna nivå.”

Gränserna och standardvärdena för AI-system bör beslutas demokratiskt av människor runt om i världen och enskilda användare bör ha stor kontroll över den AI de använder.

”Vi vet ännu inte hur en sådan mekanism ska utformas, men vi planerar att experimentera med utvecklingen av den”, skriver de.

 

Läs mer