Inzichten

Hoe politieagenten omgaan met een real-time AI-geweldsdetectiesysteem
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Hoe politieagenten omgaan met een real-time AI-geweldsdetectiesysteem

De inzet van AI in het politiewerk wordt vaak gepresenteerd als een logische stap in de modernisering van handhaving en toezicht. Real-time analyse van camerabeelden, automatische detectie van geweld en snelle signalering van risico’s zouden bijdragen aan effectievere en snellere interventies. Tegelijkertijd roept deze ontwikkeling fundamentele vragen op over verantwoordelijkheid, toezicht en juridische verantwoording. In een recent verschenen artikel in de European Journal of Policing Studies onderzoeken Martijn Wessels, Marc Schuilenburg en René van Swaaningen hoe deze vragen in de dagelijkse praktijk uitwerken. Hun studie richt zich niet op de techniek zelf, maar op de manier waarop politieprofessionals omgaan met een real-time AI-systeem voor geweldsdetectie in de openbare ruimte.

Meer lezen
De AI-verordening herijkt: waarom grondrechten het nieuwe compliance-kompas zijn
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

De AI-verordening herijkt: waarom grondrechten het nieuwe compliance-kompas zijn

De Europese AI-verordening wordt vaak gepresenteerd als een technische set regels die innovatie moet begeleiden zonder de interne markt te verstoren. Maar wie de tekst nauwkeurig leest én de toelichting van het College voor de Rechten van de Mens erbij pakt, ziet een andere werkelijkheid: de AI Act is in essentie een grondrechtenwet. Niet alleen omdat zij veiligheids- en transparantievereisten introduceert, maar omdat het volledige regelgevingsmodel is gebouwd op één centrale gedachte: AI-toezicht ís grondrechtentoezicht.

Meer lezen
Legal prompt van de week: Laat AI z’n eigen werk verbeteren met één extra stap
Prompt, Prompting BijzonderStrafrecht.nl Prompt, Prompting BijzonderStrafrecht.nl

Legal prompt van de week: Laat AI z’n eigen werk verbeteren met één extra stap

Deze week staat een prompt centraal die AI dwingt zijn eigen output kritisch te beoordelen en te verbeteren. Door taalmodellen eerst een concept te laten maken en daarna expliciet te laten reflecteren op duidelijkheid, volledigheid en juistheid, stijgt de kwaliteit van het eindresultaat merkbaar. De prompt helpt bovendien om onzekerheden en mogelijke hallucinaties zichtbaar te maken, wat vooral bij juridisch werk essentieel is. Het resultaat is scherpere, betrouwbaardere output zonder extra tools of complexe technieken.

Meer lezen
Kan AI juridische examens beoordelen op het niveau van hoogleraren?
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Kan AI juridische examens beoordelen op het niveau van hoogleraren?

De vraag of artificial intelligence (AI) in staat is om juridische examens te beoordelen op het niveau van ervaren rechtenprofessoren, is lange tijd vooral theoretisch geweest. Recent empirisch onderzoek brengt daar verandering in. Een gezamenlijk onderzoek van zes Amerikaanse rechtenfaculteiten laat zien dat bestaande large language models (LLM’s), mits voorzien van duidelijke beoordelingscriteria, in staat zijn om studentenantwoorden op juridische analysevragen te beoordelen met een nauwkeurigheid die dicht in de buurt komt van menselijke beoordelaars.

Meer lezen
Van experiment naar infrastructuur: wat The state of enterprise AI laat zien over volwassen AI-gebruik
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Van experiment naar infrastructuur: wat The state of enterprise AI laat zien over volwassen AI-gebruik

“De echte sprong zit niet in een slim model, maar in slimme inbedding: herhaalbare taken, vaste hulpmiddelen en goed ingerichte systemen.” Die zin vat scherp samen wat uit The state of enterprise AI naar voren komt. In dit rapport beschrijft OpenAI wat er gebeurt wanneer grote organisaties AI niet langer zien als iets om mee te experimenteren, maar als vaste infrastructuur voor het dagelijks werk. Het rapport kijkt nadrukkelijk niet naar één sector of beroepsgroep. De focus ligt op organisaties als geheel: teams, functies, processen en systemen. Daarmee verschuift ook de vraag. Niet langer: kan AI dit? maar: hoe organiseer je AI zó dat het structureel waarde oplevert?

Meer lezen
Kritiek op AI? Maak eerst onderscheid
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Kritiek op AI? Maak eerst onderscheid

De maatschappelijke kritiek op AI is begrijpelijk, maar verliest vaak scherpte doordat techniek, ontwikkeling, presentatie, gebruik en maatschappelijke impact op één hoop worden gegooid. Door AI te analyseren op vijf niveaus wordt duidelijk waar kritiek écht thuishoort en wie verantwoordelijk is. Taalmodellen denken niet en zijn geen betrouwbare bron, maar kunnen wel waardevol zijn als hulpmiddel. Veel problemen ontstaan niet door de techniek zelf, maar door ontwerpkeuzes, marketing en ondoordacht gebruik. Apocalyptische framing verhult structurele problemen in onderwijs, media en beleid die al langer bestaan. Gerichte, gelaagde kritiek maakt zinvolle keuzes, betere regulering en verantwoord gebruik mogelijk.

Meer lezen
Awesome Compliance Technology haalt €1,2 miljoen op voor collaboratief AI-complianceplatform
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Awesome Compliance Technology haalt €1,2 miljoen op voor collaboratief AI-complianceplatform

De Nederlandse startup Awesome Compliance Technology (kortweg Awesome) heeft een pre-Seed investering van €1,2 miljoen opgehaald, geleid door het investeringsfonds Horizon Flevoland, met aanvullende steun van meerdere legal-tech angel-investeerders. Deze investeringsronde is bedoeld voor de verdere ontwikkeling en opschaling van een AI-platform dat speciaal is gebouwd voor compliance-professionals, met een eerste focus op Europese regelgeving zoals de AVG (GDPR), de EU AI Act en de Data Act.

Meer lezen
Apps in ChatGPT: een nieuwe manier van werken met AI
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Apps in ChatGPT: een nieuwe manier van werken met AI

ChatGPT ontwikkelt zich van een losse AI-assistent tot een platform waarin externe apps direct in het gesprek kunnen meedraaien. Deze apps maken het mogelijk om context toe te voegen en acties uit te voeren, waardoor juridische workflows binnen één omgeving kunnen plaatsvinden. Voor juristen betekent dit minder schakelen tussen systemen en meer samenhang in onderzoek, analyse en documentatie. Tegelijkertijd vraagt dit om scherpte op verantwoordelijkheid, privacy en de betrouwbaarheid van gebruikte apps. AI verschuift hiermee van experiment naar infrastructuur in de juridische praktijk. Wie nu nadenkt over verantwoorde inbedding van AI, vergroot zijn professionele voorsprong.

Meer lezen
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Prompting volgens Anthropic: het interne stappenmodel voor consistente AI-output

Anthropic heeft een intern promptframework gedeeld dat bestaat uit een gestructureerd tien-stappenmodel voor het aansturen van AI-systemen. Het model beschrijft hoe rol, toon en context vooraf expliciet worden vastgelegd om relevante output te krijgen. Daarnaast worden complexe taken opgesplitst in concrete instructies en ondersteund met voorbeelden. Het framework bevat ook stappen om gespreksgeschiedenis, denkstappen en onzekerheid expliciet te adresseren. Door outputformaat en startpunt te specificeren wordt de uitvoer consistenter en beter controleerbaar. Het stappenmodel is generiek toepasbaar op verschillende AI-modellen en werkscenario’s.

Meer lezen
Brussel opent onderzoek naar AI-overzichten van Google
BijzonderStrafrecht.nl BijzonderStrafrecht.nl

Brussel opent onderzoek naar AI-overzichten van Google

De Europese Commissie is een formeel onderzoek gestart naar Google in verband met mogelijke schendingen van de Europese mededingingsregels. Aanleiding vormen zogenoemde AI-overviews: door kunstmatige intelligentie gegenereerde samenvattingen die door Google bovenaan de zoekresultaten worden weergegeven. Deze overzichten bundelen informatie uit verschillende online bronnen en worden direct in de zoekmachine getoond.

Meer lezen