{"id":1429,"date":"2025-07-01T09:48:48","date_gmt":"2025-07-01T09:48:48","guid":{"rendered":"https:\/\/textmetrics.com\/2-augustus-nieuwe-regels-binnen-de-ai-act\/"},"modified":"2026-01-02T14:29:50","modified_gmt":"2026-01-02T14:29:50","slug":"2-augustus-nieuwe-regels-binnen-de-ai-act","status":"publish","type":"post","link":"https:\/\/textmetrics.com\/nl\/2-augustus-nieuwe-regels-binnen-de-ai-act\/","title":{"rendered":"2 augustus: nieuwe regels binnen de AI-Act"},"content":{"rendered":"<p>Vanaf 2 augustus 2025 gaat een nieuwe set regels binnen de Europese AI-Act van kracht. Deze fase richt zich specifiek op transparantie en verantwoord gebruik van generatieve AI-modellen, zoals ChatGPT, beeld- en muziekgeneratoren. Wat betekent dit concreet? En waarom is het belangrijk voor jouw organisatie?<\/p>\n<h2>Wat verandert er?<\/h2>\n<p>Vanaf 2 augustus gelden er nieuwe verplichtingen voor aanbieders van zogeheten General Purpose AI (GPAI). Denk hierbij aan:<\/p>\n<ul>\n<li><strong>Transparantie over trainingsdata<\/strong><br \/>\nAanbieders moeten samenvattingen van hun datasets publiceren<\/li>\n<li><strong>Auteursrecht-naleving<\/strong><br \/>\nBedrijven moeten kunnen aantonen dat hun model wettelijk in orde is<\/li>\n<li><strong>Verplichte documentatie<\/strong><br \/>\nInclusief risicoanalyses en technische specificaties<\/li>\n<\/ul>\n<p>Voor AI-modellen met een systemisch risico (modellen met grote maatschappelijke impact) gelden zelfs strengere eisen, zoals het melden van incidenten en structurele risicobeoordeling.<\/p>\n<p>Daarnaast moeten AI-systemen met een beperkt risico, zoals chatbots, gebruikers duidelijk laten weten dat ze met AI communiceren. Dat betekent dus: geen onduidelijkheid meer over of een tekst of beeld door een mens of een machine is gegenereerd.<\/p>\n<p>&nbsp;<\/p>\n<h2>Waarom dit belangrijk is<\/h2>\n<p>De AI Act is de eerste brede wetgeving ter wereld die AI op een risicogebaseerde manier reguleert. Voor organisaties betekent dit niet alleen meer verantwoordelijkheid, maar ook een kans om het verschil te maken met <a href=\"https:\/\/www.textmetrics.com\/nl\/de-3-pijlers-van-ai-governance-transparantie-ethiek-en-verantwoordelijkheid\">transparante, eerlijke en betrouwbare AI-toepassingen<\/a>. Het is een stap richting ethische technologie en het versterken van het vertrouwen bij klanten, gebruikers en stakeholders.<\/p>\n<p>Het negeren van deze verplichtingen is geen optie: bij niet-naleving kunnen boetes oplopen tot \u20ac35 miljoen of 7% van de wereldwijde jaaromzet.<\/p>\n<p>&nbsp;<\/p>\n<h2>Wat kun je nu al doen?<\/h2>\n<ul>\n<li>Controleer of de AI-modellen die je gebruikt onder de nieuwe regels vallen<\/li>\n<li>Begin op tijd met het opstellen van de vereiste documentatie<\/li>\n<li><a href=\"https:\/\/www.textmetrics.com\/nl\/wat-is-digitale-compliance-en-waarom-raakt-het-alles-wat-je-schrijft-en-automatiseert\">Betrek juridische, technische en compliance-teams bij de voorbereiding<\/a><\/li>\n<\/ul>\n<p>De boodschap is duidelijk: transparantie is geen bijzaak meer, het is een kernvoorwaarde voor verantwoord AI-gebruik. Door nu actie te ondernemen, ben je straks niet alleen compliant, maar ook future-proof.<\/p>\n<p>Heb je hulp nodig bij het in kaart brengen van de impact op jouw organisatie? Laat het ons weten, we denken graag met je mee.<\/p>\n<p>&nbsp;<\/p>\n<h2>Veelgestelde vragen over de AI Act<\/h2>\n<p><strong>Wat is de AI Act precies?<\/strong><br \/>\nDe AI Act is Europese wetgeving die het gebruik van kunstmatige intelligentie reguleert op basis van risico. Het doel: veilige, transparante en betrouwbare AI binnen de EU.<\/p>\n<p><strong>Wat gebeurt er op 2 augustus 2025?<\/strong><br \/>\nVanaf die datum gaan nieuwe verplichtingen in voor ontwikkelaars en aanbieders van generatieve AI-modellen. Denk aan transparantie over trainingsdata, risicoanalyses en <a href=\"https:\/\/www.textmetrics.com\/nl\/ai-gebruiken-zorg-dan-dat-je-het-goed-regelt-met-een-ai-governance-framework\">duidelijke communicatie richting gebruikers<\/a>.<\/p>\n<p><strong>Geldt dit ook voor AI-systemen die ik als bedrijf \u2018alleen maar gebruik\u2019?<\/strong><br \/>\nJa, in bepaalde gevallen. Gebruik je een AI-model dat onder de GPAI-verplichtingen valt (bijvoorbeeld via een API of platform)? Dan moet je als gebruiker ook aan bepaalde transparantie- en zorgvuldigheidseisen voldoen.<\/p>\n<p><strong>Wat wordt bedoeld met \u2018beperkt risico AI\u2019?<\/strong><br \/>\nDat zijn AI-toepassingen die relatief weinig risico\u2019s meebrengen, zoals chatbots of AI-gegenereerde teksten. Wel geldt er een meldplicht: de gebruiker moet weten dat er AI in het spel is, bijvoorbeeld via een label als \u201cDeze tekst is gegenereerd door AI\u201d.<\/p>\n<p><strong>Hoe weet ik of mijn AI-systeem onder deze regels valt?<\/strong><br \/>\nDat hangt af van de functionaliteit, het doel en de impact van het systeem. Werk je met generatieve AI of modellen die in meerdere toepassingen gebruikt worden? Dan is de kans groot dat je onder de AI Act valt.<\/p>\n<p><strong>Wat zijn de gevolgen als ik me niet aan de regels houd?<\/strong><br \/>\nDe Europese Commissie kan hoge boetes opleggen bij overtreding, tot wel \u20ac35 miljoen of 7% van de wereldwijde omzet. Maar belangrijker nog: het niet naleven van de regels kan je reputatie en klantvertrouwen schaden.<\/p>\n<p><strong>Wat kan ik nu doen om me voor te bereiden?<\/strong><br \/>\nBegin met het in kaart brengen van je AI-toepassingen, verzamel de juiste documentatie en <a href=\"https:\/\/www.textmetrics.com\/nl\/wie-is-verantwoordelijk-voor-ai-binnen-je-organisatie-hint-het-is-niet-alleen-it\">zorg dat je juridische en technische teams op de hoogte zijn van de komende verplichtingen<\/a>. Tijdig beginnen is cruciaal.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vanaf 2 augustus 2025 gaat een nieuwe set regels binnen de Europese AI-Act van kracht. Deze fase richt zich specifiek op transparantie en verantwoord gebruik van generatieve AI-modellen, zoals ChatGPT, beeld- en muziekgeneratoren. Wat betekent dit concreet?<\/p>\n","protected":false},"author":2,"featured_media":1430,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_seopress_robots_primary_cat":"","_seopress_titles_title":"","_seopress_titles_desc":"Vanaf 2 augustus 2025 gaat een nieuwe set regels binnen de Europese AI-Act van kracht. Deze fase richt zich specifiek op transparantie en verantwoord gebru...","_seopress_robots_index":"","footnotes":""},"categories":[3,161],"tags":[],"class_list":["post-1429","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog","category-ai-act"],"acf":[],"_links":{"self":[{"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/posts\/1429","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/comments?post=1429"}],"version-history":[{"count":1,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/posts\/1429\/revisions"}],"predecessor-version":[{"id":1659,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/posts\/1429\/revisions\/1659"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/media\/1430"}],"wp:attachment":[{"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/media?parent=1429"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/categories?post=1429"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/textmetrics.com\/nl\/wp-json\/wp\/v2\/tags?post=1429"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}