Microsoft, Google en xAI verlenen Amerikaanse overheid voortijdige toegang tot AI-modellen

Bewerkt door: Tatyana Hurynovich

Volgens diverse westerse en Russische media hebben Microsoft, Google (onderdeel van Alphabet) en Elon Musks xAI afspraken gemaakt met de Amerikaanse overheid over vroegtijdige toegang tot hun geavanceerde AI-modellen nog vóór de officiële release. De autoriteiten zijn van plan deze modellen te gebruiken om de risico's en kansen te evalueren, met name op het gebied van nationale veiligheid en de bestendigheid tegen kwaadwillig gebruik.

In het kader van initiatieven die voortvloeien uit het AI-decreet en actieplan van president Trump, krijgen federale instanties – waaronder het Center for AI Standards and Innovation (CAISI) van het Amerikaanse ministerie van Economische Zaken – de gelegenheid om deze systemen vooraf te analyseren. Hierbij wordt specifiek gezocht naar risico's rondom het genereren van gevaarlijke inhoud, cyberdreigingen of de mogelijke inzet voor militaire en inlichtingendoeleinden.

De precieze voorwaarden voor deze toegang en de hoeveelheid gebruikte data zijn nog niet volledig openbaar gemaakt. Dit roept vragen op bij experts en mensenrechtenorganisaties over de waarborging van privacy, de mate van toezicht en de grenzen aan het gebruik van de modellen door de overheid.

Dit initiatief vindt plaats tegen de achtergrond van de toenemende wereldwijde concurrentiestrijd op AI-gebied, waarbij de VS een technologische en militaire voorsprong proberen te behouden. Door vroegtijdige toegang tot AI-modellen kan de overheid niet alleen risico's inschatten, maar ook bekijken hoe de technologie kan worden ingezet voor de belangen van het Pentagon, inlichtingendiensten en andere instanties; een trend die al deels zichtbaar was in eerdere samenwerkingen tussen techreuzen en defensie.

De betrokken bedrijven hopen waarschijnlijk dat het tonen van een verantwoordelijke houding en de bereidheid tot toezicht de kans op strengere wetgeving en directe beperkingen in de toekomst zal verkleinen.

Analisten trekken parallellen met historische vormen van samenwerking tussen de overheid en de private sector, zoals in de kernenergie of biotechnologie, waar strikt overheidstoezicht hand in hand ging met technologische vooruitgang. Bij kunstmatige intelligentie gaat het echter om systemen die al diep verweven zijn met het dagelijks leven van miljoenen mensen via zoekmachines, chatbots, dataverwerking en militaire toepassingen. Deze vorm van samenwerking zou een blauwdruk kunnen worden voor andere landen die zoeken naar een balans tussen het stimuleren van innovatie en het beschermen van de samenleving tegen de gevaren van krachtige AI-modellen.

Voor gebruikers en de markt betekent dit dat de ontwikkeling van technologieën die de economie, bedrijfsmodellen en sociale processen kunnen transformeren, onder scherper toezicht van toezichthouders zal komen te staan. Omdat de autoriteiten vooraf de risico's van elk nieuw AI-product beoordelen, kan dit leiden tot strengere richtlijnen en regels die niet alleen in de VS gelden, maar ook hun weg vinden naar het internationale speelveld.

Bovendien zorgt deze aanpak voor een zekere asymmetrie in de internationale samenwerking: bondgenoten van de VS en andere landen zouden in een zwakkere positie kunnen komen bij het opstellen van wereldwijde veiligheidsnormen, aangezien zij niet over hetzelfde niveau van toegang tot Amerikaanse AI-technologie beschikken. Belangrijk hierbij is dat de afspraken vooral betrekking hebben op grensverleggende modellen die gevoelig liggen voor nationale en militaire belangen, waardoor de focus ligt op kernbedreigingen zonder dat alle commerciële geheimen op straat komen te liggen.

Uiteindelijk markeert het verlenen van voortijdige toegang tot AI-modellen de overgang naar een systeem waarin de ontwikkeling en implementatie van kunstmatige intelligentie rust op een voortdurende dialoog tussen ontwikkelaars, de overheid en de maatschappij. Hierbij hebben veiligheid en nationale belangen een groeiende invloed op het tempo en de vorm van technologische vooruitgang.

7 Weergaven

Bronnen

  • Microsoft, Google, xAI give US access to AI models for security testing

Heb je een fout of onnauwkeurigheid gevonden?We zullen je opmerkingen zo snel mogelijk in overweging nemen.