Europa wil burgers beschermen tegen de risicos van artificiële intelligentie (AI). Hiervoor roept de EU de AI Act in het leven. Deze wetgeving legt verantwoordelijkheid en verplichtingen op aan verschillende entiteiten, zowel voor de bedrijven die AI creëren, als de gebruikers van AI-tools.
De EU creëert vier risiconiveaus voor AI en de risicos voor de mensenrechten van burgers :
- Onaanvaardbaar risico: hieronder valt AI die een bedreiging voor mensen is. Deze AI-tools zijn dan ook strikt verboden.
- Hoog risico: AI die de rechten of veiligheid van mensen kan schaden. Europa staat het gebruik toe, maar onder strikte voorwaarden.
- Beperkt risico: deze AI-tools zijn toegestaan, maar gebruikers moeten duidelijk aangeven dat ze AI gebruikten voor de gecreëerde output.
- Laag risico: deze tools mag je vrij gebruiken.
Daarnaast komt er een Europese database met informatie over hoogrisico AI-toepassingen. Andere toepassingen kunnen ook vrijwillig de info over hun toepassing aanvullen in deze database.
Tijdslijn AI Act
De AI Act rolt stap per stap uit. De eerste fase startte in augustus 2024 en pas in augustus 2026 zal de volledige AI Act actief zijn.
- 1 augustus 2024: AI Act treedt in werking
- 1 februari 2025: Verboden om AI uit de categorie onaanvaardbaar risico te gebruiken
- 1 augustus 2025: AI uit de categorie beperkt risico moet voldoen aan de AI Act
- 1 augustus 2026: AI uit de categorie hoog risico moet voldoen aan de AI Act
Wat kan je nu al doen als bestuur?
Om goed voorbereid te zijn, kan je nu al in actie schieten. We geven al enkele tips mee.
- Inventariseer en schat de risicos in:
- Vraag binnen je bestuur wie welke AI-systemen waarvoor gebruikt. Dit omvat alles van AI-aangedreven verkeersmanagementsystemen, chatbots op gemeentelijke websites of het occasioneel gebruik van ChatGPT voor nieuwsbrieven.
- Daarna maak je een risicoanalyse om te bepalen in welke risicocategorie van de AI Act de toepassingen vallen. Hoe je een toepassing gebruikt, bepaalt het risico. Gebruik je ChatGPT om fouten uit een tekst te halen, of om cvs te screenen?
- Stel een AI-beleid op:
- Maak afspraken hoe je als bestuur om wil gaan met AI, staaf dit met voorbeelden en bied de nodige opleidingen aan.
- Transparantie en kennisgeving:
- Zorg ervoor dat inwoners geïnformeerd worden over het gebruik van AI-systemen. Dit kan met informatiecampagnes, meldingen op websites en openbare registers van AI-systemen. Maar ook door onderaan een tekst een disclaimer te plaatsen waarin staat dat AI gebruikt is.
- Wees extra waakzaam met persoonsgegevens
- Laad geen persoonsgegevens op in AI. Je kan niet weten hoe de toepassing deze verwerkt en waar ze dus later opnieuw kunnen opduiken.
- Schakel waar mogelijk de functie uit waarbij je input gebruikt wordt om het AI-systeem verder te trainen
- Opleiding en training:
- Train medewerkers van je bestuur om goed om te gaan met AI-systemen en op de hoogte zijn van de nieuwe regelgeving. Dit helpt niet alleen bij naleving, maar ook bij het effectief benutten van AI-technologieën.
Als je met deze stappen van start gaat, ben je al een heel eind op weg om te voldoen aan de nieuwe AI Act.
Laat al deze waarschuwingen en richtlijnen je zeker niet tegen houden om te experimenteren met AI. Er zijn heel veel fijne toepassingen die je tijd kunnen besparen en mooie dingen kunnen creëren. Zolang je er maar transparant over bent.
* De foto bij dit artikel werd gegenereerd door AI.