Cloudflare introduceert een schild tegen AI-content-scraping

Cloudflare, wereldwijd bekend om zijn webbeveiligingsdiensten, heeft een nieuwe tool die websites helpt om zich te verdedigen tegen content-scraping door AI-bots. De tool speelt in op de groeiende zorgen van makers die zien hoe hun content door grote AI-modellen wordt gebruikt, vaak zonder toestemming of compensatie.

post-image-3
AI Labyrinth, de nieuwe tool van Cloudfare, is ontworpen om automatisch verdacht verkeer van AI-crawlers te detecteren en blokkeren. Via machine learning en gedragspatronen wordt bepaalt of een bot toegang probeert te krijgen tot grote hoeveelheden tekst of code voor trainingsdoeleinden. Als zo’n patroon wordt herkend, kan de tool het verzoek blokkeren of omleiden.

Waarom is dit belangrijk?

Veel AI-bedrijven, waaronder OpenAI, Google, en Anthropic, trainen hun modellen op enorme hoeveelheden tekst die zij via het internet verzamelen. Hoewel sommige bedrijven vrijwillig afspraken maken met uitgevers of licenties aankopen, gebeurt dat lang niet altijd. Met deze tool biedt Cloudflare websites een manier om zelf te beslissen of hun content wel of niet beschikbaar mag zijn voor AI-bedrijven. 

Deze stap zou kunnen leiden tot minder toegang tot waardevolle data voor AI-trainingsdoeleinden. Zeker als meerdere bedrijven vergelijkbare blokkades implementeren, kan het een rem zetten op de ontwikkeling van generatieve AI die sterk leunt op publieke tekstbronnen. Tegelijkertijd zet het druk op AI-ontwikkelaars om transparanter te zijn over hun datastrategie en om eerlijke overeenkomsten te sluiten met contentmakers. 
Back to top button
Close
Close