Van datacenters tot ‘neutrale’ AI: dit staat er in hetAI Action Plan van Trump

Op 23 januari 2025 ondertekende president Trump Executive Order  14179, getiteld Removing Barriers to American Leadership in Artificial Intelligence. Deze order leidde tot de opdracht om binnen 180 dagen een uitvoerig beleidsplan op te stellen gericht op het versterken van Amerika’s wereldwijde AI-dominantie. Het verving het eerdere Biden-beleid op basis van EO 14110.

Het resultaat is het “Winning the AI Race: America’s AI Action Plan”, gepubliceerd op 23 juli 2025 tijdens de AI-summit in Washington, D.C. Het document beslaat 23 pagina’s en omvat meer dan 90 federale beleidsmaatregelen verdeeld over drie hoofdgebieden: innovatie versnellen, infrastructuur opbouwen en internationale AI-diplomatie en veiligheid.

Het plan kwam tot stand na uitgebreide consultatie: meer dan 10.000 publieke reacties van academici, industriepartijen en maatschappelijke organisaties via de OSTP en NITRD. De beleidsprincipes omvatten het bevorderen van “human flourishing”, nationale concurrentiekracht en veiligheid.

Centrale aandrijvers zijn ambitie en urgentie. In de woorden van de overheid: “AI is far too important to smother in bureaucracy”. Daarmee is er duidelijk gekozen voor innovatie boven langdurige veiligheidsbeoordelingen of voorzichtige regeldialogen.

Het plan verwoordt dat de VS moet streven naar “industrie-, informatie- en renaissance in één beweging”. Dit toont de strategische intentie: Amerika wil de wereldwijde standaard zetten voor AI, zonder vertraging door regels of verdeeld binnenlandse regelgeving.

In het kort

  • Publicatie AI Action Plan: Op 23 juli 2025 presenteerde president Trump het AI Action Plan, voortkomend uit Executive Order 14179 van januari 2025.

  • Drie centrale pijlers: (1) versnelling van AI-innovatie, (2) opbouw van nationale AI-infrastructuur (zoals datacenters en AI-chiphubs), en (3) internationale AI-diplomatie met nadruk op nationale veiligheid en concurrentiepositie.

  • Deregulering centraal: Het plan beoogt versoepeling van federale milieuwetgeving (waaronder de Clean Air Act, Clean Water Act en NEPA) om snellere bouw van AI-gerelateerde infrastructuur mogelijk te maken.

  • Beperking staatsregulering: Staten die eigen, strengere AI-regels aannemen, kunnen federale subsidies of ondersteuning mislopen. De FCC is gevraagd te beoordelen of zulke regels federale bevoegdheden belemmeren.

  • Eis van ‘neutrale’ AI: Federale overheden mogen alleen zaken doen met bedrijven die AI-systemen ontwikkelen die vrij zijn van ideologische vooringenomenheid. Dit wordt vastgelegd in aanvullende richtlijnen en instructies aan NIST.

  • Aanpassing NIST-risicokader: De federale AI-risicomanagementkaders worden aangepast: begrippen als desinformatie, klimaatverandering en diversiteit dienen te worden vermeden in federale AI-richtlijnen.

  • Exportcontrole en veiligheid: Het ministerie van Handel wordt opgedragen exportcontroles op geavanceerde AI-chips aan te scherpen en AI-modellen te screenen op ongewenste buitenlandse beïnvloeding.

  • Infrastructuur op federale gronden: Federale instanties mogen datacenters en AI-faciliteiten ontwikkelen op nationale parken, militaire terreinen en andere federale eigendommen, met prioriteit op het stroomnet.

  • Gevolgen voor Europese juristen: Europese bedrijven die samenwerken met Amerikaanse AI-leveranciers moeten rekening houden met gewijzigde voorwaarden voor federale aanbestedingen, beperkingen op staatsregulering, eisen aan ‘ideologisch neutrale’ AI-systemen en versnelde uitrol van datacenters zonder milieueffectrapportage. Dit vraagt om aangepaste contractclausules, herziening van compliancebeleid en verhoogde aandacht voor gegevensuitwisseling en exportcontrole in grensoverschrijdende samenwerking.

Pijler I: Accelerated AI Innovation

Bij pijler I richt het AI Action Plan zich op het verwijderen van regelgeving die de ontwikkeling van kunstmatige intelligentie belemmert. Federale agentschappen worden verplicht om bestaande regels en beleidslijnen kritisch te herzien op hun impact op AI-innovatie. Deze inspanning wordt gecoördineerd door het Office of Science and Technology Policy (OSTP), dat het technologisch beleid van de Amerikaanse president aanstuurt, en het Office of Management and Budget (OMB), dat toezicht houdt op regelgeving, begroting en beleidscoördinatie binnen de federale overheid.

Een belangrijk instrument binnen deze pijler is een Request for Information (RFI) die via het OSTP wordt uitgezet. Hiermee wordt aan bedrijven, belanghebbenden en het brede publiek gevraagd om specifieke regelgeving aan te dragen die AI-innovatie belemmert. De ontvangen reacties worden beoordeeld door OMB, dat samen met betrokken agentschappen verantwoordelijk is voor de herziening of intrekking van die regelgeving, conform Executive Order 14192 – Unleashing Prosperity Through Deregulation.

Meerdere federale agentschappen spelen een actieve rol in de uitvoering van deze pijler. Zo moet het Department of Commerce, via het onderliggende National Institute of Standards and Technology (NIST), zijn risicobeoordelingskaders voor AI aanpassen. Het Department of Labor is verantwoordelijk voor het ontwikkelen van nieuwe AI-opleidingen en het opzetten van een AI Workforce Research Hub. Andere betrokken instanties zijn onder meer het Department of Energy, dat verantwoordelijk is voor energievoorziening voor datacenters, en het Department of Homeland Security, dat AI-inzet koppelt aan nationale veiligheid. Het Department of Defense ontwikkelt defensiegerichte AI-toepassingen, terwijl de Federal Communications Commission (FCC) onderzoekt of staatsregels AI-ontwikkeling op federaal niveau belemmeren.

De overgang van het AI-beleid van president Biden naar het Trump-beleid markeert een duidelijke beleidsverschuiving: waar eerder balans werd gezocht tussen innovatie en zorgvuldige risicobeheersing, wordt regelgeving in dit plan vooral gezien als hinderpaal. Ook bestaande onderzoeken en richtlijnen, bijvoorbeeld van de Federal Trade Commission (FTC), worden opnieuw beoordeeld op hun mogelijke remmende werking op technologische vooruitgang.

Deze eerste pijler biedt concrete kansen voor bedrijven in sectoren zoals ICT, defensie, energie en infrastructuur. Tegelijkertijd roept de ingrijpende deregulering juridische vragen op over risicobeheer, aansprakelijkheid, transparantie en de rol van toezicht bij het ontbreken van formele toetsingsprocedures. Juristen die actief zijn in het bestuursrecht, aanbestedingsrecht of technologiecontracten zullen deze ontwikkeling nauwgezet moeten volgen.

Pijler II: Touring AI-infrastructuur & Datacenters

Pijler II vereist versnelling van infrastructuurprojecten zoals datacenters en chipfabrieken. Voor projecten met hoog energieverbruik (bv. >100 MW) worden versnelde toestemmingsprocedures en mogelijk vrijstellingen van NEPA (National Environmental Policy Act) voorgesteld.

Wetgevingen zoals de Clean Air Act, Clean Water Act en CERCLA worden versoepeld. Er wordt voorgesteld dat projecten op federale terreinen zoals nationale parken en militaire basislocaties kunnen plaatsvinden zonder standaard milieu-evaluaties of publieke participatie.

Het plan erkent dat datacenters enorme energie- en waterbehoeften hebben. Om de energievoorziening te waarborgen stelt het beleid voor om fossiele brandstoffen, kernenergie en gascentrales operationeel te houden tijdens piekbelasting, plus uitbreiding van transmissienetwerken.

Milieu-activisten wijzen op mogelijke gezondheids-, luchtkwaliteits‑ en rechtvaardigheidsproblemen: projecten kunnen onevenredig veel impact hebben op gemeenschappen met weinig middelen.

Analyses voorspellen dat de Amerikaanse elektriciteitsvraag door AI tegen 2028 of 2030 kan verdrievoudigen, met groeiend aandeel fossiele brandstoffen. Impact op CO₂-uitstoot en watergebruik is substantieel en kan leiden tot hogere consumentenprijzen door investeringen in netcapaciteit.

Pijler III: Internationale Diplomatie & exportcontrole

Pijler III heeft als doel de Amerikaanse AI-technologie wereldwijd uit te rollen. Ministeries van Handel en Buitenlandse Zaken werken samen om “secure full-stack export packages” te bieden inclusief hardware, software, AI‑modellen en financiering via de Export‑Import Bank aan bondgenoten.

Versterking van exportcontrole en eindgebruikersverificatie

Een belangrijk onderdeel van Trumps AI Action Plan is het aanscherpen van exportcontroles op geavanceerde AI-gerelateerde technologieën, met name halfgeleiders (AI-chips) en productieapparatuur die worden ingezet voor de ontwikkeling en toepassing van kunstmatige intelligentie. De maatregelen worden gecoördineerd door het U.S. Department of Commerce, en in het bijzonder het Bureau of Industry and Security (BIS), dat verantwoordelijk is voor de handhaving van de Export Administration Regulations (EAR).

De beleidslijn is gericht op het voorkomen van ongewenste overdracht van kritieke technologieën aan landen of entiteiten die worden aangemerkt als strategisch risico, waaronder met name de Volksrepubliek China. Het plan benadrukt het belang van het beschermen van de Amerikaanse technologische voorsprong op gebieden zoals AI-chipontwerp, trainingsinfrastructuur en modeltoepassing. Daarbij wordt gewezen op “strategische afhankelijkheden en veiligheidsrisico’s” bij buitenlandse toegang tot deze sleuteltechnologieën.

Om dit te realiseren wordt ingezet op versterkte maatregelen voor end-use en end-user verification. Fabrikanten en exporteurs van AI-gerelateerde technologieën moeten aantonen:

  • waar de geleverde goederen fysiek terechtkomen (locatiecontrole);

  • wat de beoogde toepassing is (eindgebruik);

  • en wie de uiteindelijke ontvanger is (eindgebruikerstoetsing).

Hoewel het AI Action Plan de term “verplichte locatieverificatie” niet letterlijk gebruikt, valt deze verplichting onder de bredere inzet op ketentransparantie en risicobeheersing in de exportketen. De bestaande systematiek van BIS wordt daarbij uitgebreid naar AI-specifieke toepassingen. Technologieën die worden ingezet voor het trainen, inzetten of schalen van AI-modellen vallen onder verhoogde aandacht.

Het plan verwijst daarnaast naar een versterkte toepassing van de Foreign Direct Product Rule (FDPR). Dit houdt in dat buitenlandse producten die zijn vervaardigd met behulp van Amerikaanse technologie of software alsnog onder Amerikaanse exportregels kunnen vallen, indien zij worden geëxporteerd naar risicolanden of -gebruikers. Deze bepaling is eerder ingezet tegen onder meer Huawei en wordt nu voorbereid op bredere toepassing binnen het AI-domein.

De combinatie van exportcontrolemaatregelen, eindgebruikerstoetsing, FDPR-toepassing en supply chain monitoring moet voorkomen dat AI-technologie, hoewel civiel ontwikkeld, in handen komt van buitenlandse actoren die deze kunnen inzetten voor militaire, repressieve of strategisch gevoelige doeleinden.

Voor bedrijven die samenwerken met Amerikaanse leveranciers van AI‑hardware, cloudinfrastructuur of modellen betekent dit dat zij te maken krijgen met een strikter exportcompliance-regime. Ook Europese ondernemingen die Amerikaanse componenten gebruiken bij de ontwikkeling van AI-toepassingen vallen — via herexportregels — onder deze verplichtingen. Dat vereist een robuuste juridische aanpak rond exportclassificatie, due diligence, documentatie en eindgebruikersverklaringen.

Open source

Tegelijkertijd wordt in het AI Action Plan gewezen op het belang van open source AI als strategisch instrument om technologische dominantie te bevorderen. Hoewel het plan het begrip “open source” niet expliciet definieert in juridische zin, wordt wel nadrukkelijk aandacht besteed aan het bevorderen van transparantie, hergebruik en interoperabiliteit van AI-modellen en -componenten. Open source AI wordt daarbij gepresenteerd als een manier om innovatie te versnellen, standaardisatie te bevorderen en afhankelijkheid van gesloten systemen — met name van Chinese origine — te verminderen.

In het bijzonder benadrukt het plan dat Amerikaanse bedrijven die opensourcemodellen ontwikkelen, zoals grote taalmodellen of trainingsarchitecturen, een concurrentievoordeel kunnen realiseren in internationale markten. Door deze modellen beschikbaar te stellen aan bondgenoten of ontwikkelingslanden, kunnen Amerikaanse standaarden zich op natuurlijke wijze verspreiden, zonder directe staatsinterventie. Daarmee fungeert open source AI niet alleen als technologische hefboom, maar ook als middel voor ‘soft power’, waarmee invloed wordt uitgeoefend op het ontwerp en de governance van AI-systemen buiten de VS.

Spanningsveld

Experts wijzen op een spanning: enerzijds exportbevordering en openheid, anderzijds bescherming tegen afhankelijkheid en mogelijk misbruik. Sommige commentatoren constateren inconsistenties: China blijft soms toegang houden via commerciële deals zodat Amerikaanse bedrijven dominant blijven in hardware-export.

De derde pijler van het plan, gericht op internationale technologische dominantie, heeft daarmee een uitgesproken geopolitiek karakter. Kunstmatige intelligentie wordt door de Amerikaanse regering niet uitsluitend beschouwd als een innovatiedomein, maar nadrukkelijk ook als een instrument van buitenlands beleid. AI speelt een rol in het versterken van internationale allianties, het vormgeven van handelsbetrekkingen en het beschermen van nationale veiligheidsbelangen. Juridisch gezien leidt dit tot een verwevenheid van exportcontrole, contractrecht, staatssteunmechanismen en diplomatieke verplichtingen, waarbij juristen steeds vaker worden geconfronteerd met vraagstukken die zich afspelen op het snijvlak van technologie en geopolitiek.

Staten versus federale autoriteit

Het plan introduceert mechanismen om staatelijke AI-regulering te beperken door federale subsidies en contracttoewijzingen te koppelen aan reguleringsomvang in standaarden van staten. Staten met AI-regelgeving die als “burdensome” wordt beoordeeld, riskeren het mislopen van AI-gerelateerde federale financiering.

De Federal Communications Commission (FCC) krijgt de opdracht te onderzoeken of staatsregels de federale bevoegdheden onder de Communications Act belemmeren. Dit vormt een instrument om eventueel staten te kunnen overrulen op basis van interoperabiliteit of infrastructuurbehoefte.

Hoewel een eerder voorstel in de Senaat om een moratorium op staatsregels in te voeren werd weggestemd (virtueel unaniem 99‑1), probeert het plan via beleidsinstrumenten hetzelfde doel te bereiken: nationale uniformiteit ten koste van lokale wetgeving.

De ACLU en andere burgerrechtenorganisaties stellen dat deze aanpak mogelijk buiten de bevoegdheid van de president ligt, omdat Congreswetgeving hierover ontbreekt. Het roept vragen op over de scheiding der machten en constitutionele legitimiteit.

Juridisch-deskundigen voorzien juridische uitdagingen, met name rondom staatssoevereiniteit en mogelijke preëmptierechtszaken. De schaduw van constitutionele toetsing werpt zich over federale pressie op lokale beleidsvorming.

“Neutrale AI” & ideologische bias in federale inkoop

Een opvallend aspect is de executive order “Preventing Woke AI in the Federal Government”, die voorschrijft dat federale ai‑inkoop alleen toegestaan is bij systemen die “vrij van ideologische bias zijn” en uitsluitend “objectieve waarheid representeren”.

NIST krijgt de opdracht haar AI Risk Management Framework te herzien. Termen zoals misinformatie, diversiteit, equity & inclusion, en klimaatverandering dienen verwijderd te worden. Daarmee wordt beoogd dat AI de “vrije meningsuiting” beschermt en geen social‑engineering agendas ondersteunt.

Critici wijzen erop dat het eerste amendement in het geding komt door deze restricties. Kritische onderwerpen mogen in modellen vermeden worden, wat kan neerkomen op censuur of restrictie van onderwerpvrijheid in overheidsopdrachten.

De precieze criteria voor wat als “objectief” of “ideologisch vrij” wordt beschouwd, ontbreken nog in het plan. Dat laat ruimte voor interpretatieverschillen en juridische onzekerheid bij implementatie en handhaving.

Deze aanpak introduceert juridische complexiteit in aanbestedingsrecht, vrijheid van meningsuiting en non-discriminatievereisten. Juristen zullen nauwgezet moeten volgen hoe deze criteria worden uitgewerkt in contractvoorwaarden en risicobeoordelingen.

Arbeidsmarkt, cybersecurity & juridische gevolgen

Het plan voorziet in investeringen in arbeidsmarktontwikkeling voor vitale AI-infrastructuur. Onderdeel hiervan zijn technische opleidingen voor beroepen zoals elektriciens, HVAC-technici en datacenteroperators, via training hubs en subsidies vanuit het Department of Labor.

AI-cybersecurity krijgt aandacht: systemen moeten “secure by design”, robuust, en bestand tegen data poisoning en adversarial attacks zijn. Monitoring van bedreigingen en risicoregistratie worden aanbevolen in federal AI-implementaties.

Voor juridische sectoren heeft dit gevolgen op gebied van bewijsvoering (bijvoorbeeld deepfake-detectie en AI gegenereerde content). Rechters zullen nieuwe richtlijnen moeten ontwikkelen om betrouwbaarheid en integriteit van AI-bewijs te beoordelen.

Bedrijven en advocaatpraktijken worden geconfronteerd met nieuwe compliance-eisen rond AI-beheer, data governance en aansprakelijkheid. Juridische due diligence wordt complexer door veranderende AI-risico’s, zowel voor federale als private toepassingen.

Deze elementen onderstrepen dat AI niet alleen een technologische uitdaging is, maar ook een juridische. Juristen zullen toekomstige beleidsuitvoering en regelgeving nauwgezet moeten volgen en vertalen naar contractuele en compliancepraktijken.

Afsluiting: duidelijke koers, grote gevolgen

Met het op 23 juli 2025 gepresenteerde AI Action Plan, voortvloeiend uit Executive Order 14179, heeft de Amerikaanse overheid haar strategische koers voor kunstmatige intelligentie vastgelegd. Het plan zet vol in op versnelling van innovatie, uitbreiding van AI-infrastructuur en internationale technologische dominantie. Daarbij worden federale milieuregels versoepeld, staatsregulering ontmoedigd, en worden bedrijven gestimuleerd om ‘neutrale’ AI te ontwikkelen zonder ideologische invloeden.

Voor Europese bedrijven en juristen die samenwerken met Amerikaanse AI-partners betekent dit een duidelijke beleidsverschuiving. Er komen meer producten sneller op de markt, maar mogelijk met minder wettelijke waarborgen. Nieuwe eisen aan AI-neutraliteit, voorkeur voor open source-modellen, exportbeperkingen richting China en centrale federale sturing hebben direct invloed op contracten, compliance en risicobeoordeling.

Dit plan is niet slechts een nationaal beleidsdocument, maar heeft invloed op het wereldwijde AI-landschap. Door de combinatie van geopolitieke nadruk, deregulering en strategische infrastructuurbouw is het AI Action Plan van Trump relevant voor iedere jurist die zich bezighoudt met technologie, regelgeving of grensoverschrijdende samenwerking. Het Amerikaanse pad is duidelijk: minder regels, meer snelheid – met alle juridische gevolgen van dien.

Veelgestelde juridische vragen over het AI Action Plan

Wat is het AI Action Plan dat president Trump op 23 juli 2025 heeft gepresenteerd?
Het AI Action Plan is een strategisch beleidsdocument van de Amerikaanse overheid dat 90+ maatregelen bevat om technologische dominantie op het gebied van kunstmatige intelligentie te versterken. Het plan is gebaseerd op Executive Order 14179 en bevat acties rond innovatie, infrastructuur en internationale samenwerking.

Welke juridische rol speelt Executive Order 14179 in het AI-beleid van de VS?
Executive Order 14179 vormt de juridische basis voor het AI Action Plan. De order geeft opdracht om overheidsbelemmeringen voor AI-ontwikkeling weg te nemen en verplicht federale instanties tot actie binnen 180 dagen.

Wat zijn de drie pijlers van het AI Action Plan en wat houden ze juridisch in?
Het plan kent drie pijlers: (1) versnelling van innovatie door deregulering, (2) infrastructuurontwikkeling met aangepaste milieuregels, en (3) internationale exportbevordering met extra exportcontrole. Elke pijler kent implicaties voor bestuursrecht, aanbesteding en exportrecht.

Welke federale wetten worden versoepeld voor AI-infrastructuur?
Onder meer de National Environmental Policy Act (NEPA), de Clean Air Act en de Clean Water Act worden versoepeld of uitgezonderd via categorische uitsluitingen. Ook worden vergunningprocedures gestroomlijnd onder FAST-41.

Wat betekent het AI Action Plan voor open-source AI in juridische context?
Het plan stimuleert een ondersteunende omgeving voor open-source en open-weight modellen. Deze worden strategisch gepositioneerd voor academisch onderzoek en internationale standaardisering, waarbij de overheid inzet op interoperabiliteit en compliance met Amerikaanse waarden.

Wat verandert er juridisch in de exportcontrole op AI-chips en software?
Het Department of Commerce en de National Security Council voeren extra handhaving door, zoals locatieverificatie van AI-chips en toepassing van de Foreign Direct Product Rule (FDPR) om herexport via derde landen te beperken.

Welke gevolgen heeft het AI Action Plan voor Europese bedrijven en juristen?
Bedrijven in Europa die samenwerken met Amerikaanse AI-partijen moeten rekening houden met exportbeperkingen, aanvullende compliance-eisen, en contractuele clausules over neutraliteit en herkomst van technologie. Juristen dienen exportclassificaties, modelvereisten en federale inkoopregels nauwlettend te volgen.

Wat zijn de juridische risico’s van 'neutrale AI'-verplichtingen voor federale inkoop?
Het plan vereist dat federale overheden alleen AI-systemen gebruiken die objectief zijn en geen ideologische bias bevatten. Dit kan botsen met het Eerste Amendement en roept vragen op over aanbestedingsrecht, inhoudelijke selectiecriteria en toezicht op algoritmische inhoud.

Volgende
Volgende

AP: Emoties herkennen met AI ‘dubieus en risicovol’