De Wet Digitale Diensten van de EU onder de Loep

De virtuele ruimte van de online platformen zal door de Wet Digitale Diensten (DSA) onderste boven worden gekeerd. Eens de wet volledig uitgerold, begin 2024 zullen sociale netwerken nooit meer zijn als daarvoor. DSA houdt de belofte in dat illegale inhoud, zoals haat zaaiende taal, sneller van het internet wordt verwijderd. Het basisprincipe is: wat offline illegaal is, moet ook online illegaal zijn. Socal bots en click farms worden een halt toegeroepen. De internetreuzen als Meta zullen bovendien inspectie moeten toelaten van hun algoritmes, die bepalen welke berichten een gebruiker van Facebook of Instagram te zien krijgt. Het is onmogelijk om volledig te zijn in dit bestek. De tekst beslaat 310 pagina’s. Juristen, mensenrechten- en andere burgerorganisaties moeten de wet zelf bestuderen. Hier een korte bespreking. Wat staat er zoal in?

Inleiding en enkele definities

Sedert 15 juni 2022 is er de volledige tekst beschikbaar van de Wet Digitale Diensten, DSA, aangeduid op de website van het EP als ‘Text of the provisional agreement on the digital services act’, met een download link. Het primaire doel van de DSA is het tot stand brengen van harmonisatie voor de regulering van digitale diensten in heel Europa; als EU-verordening en niet als richtlijn, is het rechtstreeks van toepassing in elke lidstaat. De DSA vereist een handhavingsregime dat naadloos werkt om te zorgen voor een gelijke toepassing van de verordening in de hele Unie.

De preambule is genummerd per paragraaf tot nummer (106a). Daarna worden de 74 genummerde artikels van de wet weergegeven. Ik beperk mij tot regels voor sociale netwerken die vooral voor gebruikers van belang zijn en behandel ook enkel zaken die toepasbaar zijn in België, want als er een zetel van een van de platformen gevestigd is in een land van de EU, zoals in Ierland en Luxemburg, wordt het wel heel ingewikkeld. Je kan een uitgebreide serie artikels raadplegen in het Engels waar ook de wereldwijde impact op de handhaving van online platformbeheer behandeld wordt, op de website van het ‘Center for Democracy and Techology’: het eerste, tweede en derde.

De term ‘sociale netwerken’ (Meta… en Tik Tok) of ‘internet platformen’ (Apple App Store, Amazon… en Google) wordt gebruikt in de preambule zoals we die in de omgangstaal gebruiken. In de wetteksten wordt veelvuldig de term ‘intermediaire diensten’ gebruikt als een container voor beide. Ik zal dus verder soms ook die term gebruiken, als de wet slaat op beide. VLOP, staat voor ‘Very Large Online Platforms’, VLOSE, staat voor ‘Very Large Online Search Engins’. Dit wil in beide gevallen zeggen, met meer dan 45 miljoen gebruikers, (zie ook artikel 25 en artikel 33a).

De definitie van ‘illegale inhoud’ luidt als volgt:”In het bijzonder moet dat begrip worden begrepen als te verwijzen naar informatie, ongeacht de vorm ervan, die volgens het toepasselijke recht ofwel zelf onwettig is, zoals illegale haat zaaiende uitlatingen of terroristische inhoud en onwettige discriminerende inhoud, of die volgens de toepasselijke regels onwettig is van het feit dat het betrekking heeft op illegale activiteiten. Illustratieve voorbeelden zijn onder meer het delen van afbeeldingen waarop seksueel misbruik van kinderen te zien is, het onrechtmatig delen van privéafbeeldingen zonder wederzijds goedvinden, online stalking, de verkoop van niet conforme of namaakproducten, de verkoop van producten of het verlenen van diensten in strijd met de wetgeving inzake consumentenbescherming, het niet toegestaan gebruik van auteursrechtelijk beschermd materiaal, het illegaal aanbieden van accommodatie, diensten, of illegale verkoop van levende dieren.” (paragraaf 12)

Uitrol of geleidelijke invoering van de verordening

“Deze verordening treedt in werking op de twintigste dag volgende op die van haar bekendmaking in het Officieel Publicatieblad van de Europese Unie.

Zij is van toepassing met ingang van … [15 maanden na de inwerkingtreding of 1 januari 2024, afhankelijk van wat later is]. Artikel 23, leden 2 en 3, artikel 25, leden 4 tot en met 6, en afdelingen 3 tot en met 5 van hoofdstuk IV (artikels 49a tot en met 70) zijn echter van toepassing met ingang van … [de datum van inwerkingtreding van deze verordening].

In afwijking van de eerste alinea van dit lid, is deze verordening van toepassing op krachtens artikel 25, lid 4, aangewezen aanbieders van zeer grote onlineplatforms en zeer grote onlinezoekmachines vanaf vier maanden na de in artikel 25, lid 6, bedoelde kennisgeving aan de betrokken aanbieder, indien waar die datum eerder is dan … [15 maanden na inwerkingtreding of 1 januari 2024, afhankelijk van wat later is].” (mijn letterlijke vertaling uit het Engels van artikel 74)

De volgende bepalingen treden dus onmiddellijk twintig dagen na publicatie in werking: Artikel 25 definieert de VLOP’s en VLOSE’s; Paragrafen 3 tot en met 5 van hoofdstuk IV gaan over toezicht, detectie, handhaving en monitoring van VLOP’s en VLOSE’s; Artikel 23 lid 2 en 3, dat handelt over de transparantierapportageverplichtingen voor aanbieders van online platforms, treedt drie maanden na publicatie in werking. De andere verordeningen kunnen pas meer dan een jaar later toegepast worden omdat de EU nog een gans apparaat moet opzetten voor de controle en de handhaving ervan. Het artikel 74 is echt juristen lingo. Zelf moest ik het herhaalde malen lezen voor ik het snapte. Om het vor de lezer wat gemakkelijker te maken zal ik bij de artikels die onmiddellijk van toepassing zijn vermelden “onmiddellijk van toepassing”. Voor de andere is het dus wachten tot ten laatste 1 januari 2024.

Gelaagde aanpak handhaving en bestraffen van overtredingen

De handhaving wordt opgesplitst tussen Digitale Diensten Coördinatoren, DSC’s, en de Europese Commissie zelf, die hierbij ondersteund wordt door het Europese Bestuur van Digitale Diensten Coördinatoren, verder het Bestuur genoemd. Die bestaat dus uit een vergadering van alle DSC’s voorgezeten door de Commissie. Dit Bestuur moet toezien op de consistente toepassing van de Wet Digitale Diensten.

Elke EU-lidstaat moet een nationale autoriteit aanduiden als Digitale Diensten Coördinator en die zal verantwoordelijk zijn voor het toezicht en de handhaving van de DSA op nationaal niveau (artikel 38). Aangezien een bestaande autoriteit de rol van DSC kan worden toegewezen, blijkt uit discussies tussen lidstaten dat in het buitenland de voorkeur wordt gegeven aan regulatoren voor audiovisuele media om deze rol te vervullen, hoewel specifieke taken kunnen worden toegewezen aan andere bevoegde autoriteiten, zoals regelgevende instanties voor elektronische communicatie of autoriteiten voor consumentenbescherming. Het DSC moet de samenwerking tussen alle relevante bevoegde autoriteiten coördineren en moet duidelijk onafhankelijk zijn en vrij blijven van politieke of particuliere invloeden (artikel 39).

De onderzoeksbevoegdheden van DSC’s omvatten, maar zijn niet beperkt tot, het verplichten van intermediaire diensten om informatie te verstrekken en de mogelijkheid om inspecties van gebouwen uit te voeren(of een gerechtelijke autoriteit te gelasten) om informatie met betrekking tot vermoedelijke inbreuken in beslag te nemen. Enkele van hun handhavingsbevoegdheden zijn het opleggen van boetes of dwangsommen, het verzoeken van een rechterlijke instantie om detoegang tot een onlinedienst tijdelijk te beperkenen de bevoegdheid om voorlopige maatregelen te nemen (artikel 41).

De Europese Commissie behoudt onderzoeksbevoegdheden die kunnen worden uitgeoefend door middel van een onderzoek op eigen initiatief, of op verzoek van een DSC die een mogelijke inbreuk op de verordening door een VLOP/VLOSE vermoedt die gebruikers binnen hun respectieve lidstaat treft.

Evenzo kan de Commissie van VLOP’s/VLOSE’s verlangen dat zij informatie verstrekken die relevant is voor hun onderzoek naar een vermoedelijke inbreuk; binnen deze verzoeken moet de Commissie de rechtsgrondslag verstrekken, specificeren welke informatie vereist is en een termijn vaststellen waarbinnen de informatie moet worden verstrekt (artikel 52 onmiddellijk van toepassing).

Daarnaast kan de Commissie besluiten tot niet-naleving uitvaardigen (artikel 58 onmiddellijk van toepassing); boetes opleggen die niet hoger zijn dan 6% van de totale wereldwijde jaaromzet van de dienstverlener (artikel 59 onmiddellijk van toepassing); en de door VLOP’s/VLOSE’s gedane toezeggingen juridisch bindend te maken om naleving te waarborgen (artikel 56 onmiddellijk van toepassing). De Europese Commissie zal het Bestuur echter consequent moeten raadplegen in verband met verschillende handhavingsmaatregelen.

Het Bestuur van Digitale Diensten Coördinators is een compleet nieuw en totaal onafhankelijk orgaan binnen de EU. Hij heeft tot taak de consistente toepassing van de DSA te ondersteunen. Het Bestuur bestaat uit alle DSC’s, die allemaal stemrecht hebben in deze formatie, en wordt voorgezeten door de Europese Commissie, die geen stemrecht heeft. De rol van het Bestuur is voornamelijk adviserend en zal onder meer bijdragen aan het opstellen van gedragscodes en ondersteuning van gezamenlijke onderzoeken tussen DSC’s en de Europese Commissie. Het Bestuur kan de Europese Commissie en DSC’s adviseren over passende handhavingsmaatregelen, met name voor VLOP’s/VLOSE’s, en kan adviezen uitbrengen aan de DSC’s. Hoewel deze adviezen niet juridisch bindend zijn, moet het besluit van een DSC om van een advies af te wijken wel worden gemotiveerd en kan hiermee rekening worden gehouden wanneer de Europese Commissie beoordeelt of een relevante lidstaat voldoet aan de verordening.

Rapportering door ‘trusted flaggers’ moet prioriteit verleend worden door de aanbieders van online platformen. De Digitale Diensten Coördinator kan een entiteit ‘trusted flaggers’, die zich kandidaat stelt, aannemen op voorwaarde dat (a) deze over bijzondere expertise en competentie beschikt voor het opsporen, identificeren en melden van illegale inhoud; (b) deze onafhankelijk is van gelijk welke aanbieder van online platforms; (c) de entiteit haar activiteiten verricht met het oog op het indienen van rapportering op een zorgvuldige, nauwkeurige en objectieve manier.

De ‘trusted flagger’ moet bekend gemaakt worden aan de Commissie. De Commissie registreert dan het adres en email van de entiteit in een publiek toegankelijke databank. Deze entiteit moet een jaarlijks rapport opstellen over haar activiteiten. Bij klachten van beheerders van online platformen over te veel onnodige en onjuiste rapportering moet de Digitale Diensten Coördinator die entiteit onderzoeken. Tijdens het onderzoek wordt ze op inactief gezet. Dit onderzoek moet zo snel mogelijk gebeuren en de ‘trusted flagger’ kan eventueel teruggeroepen worden (artikel 19).

Van VLOPs en VLOSE’s wordt transparantie en verantwoording geëist

Deze regel maakt een einde aan de willekeur die dikwijls ervaren wordt bij het verwijderen van content. VLOP’s en VLOSE’s moeten hun gebruiksvoorwaarden klaar en duidelijk meedelen aan hun gebruikers. Die informatie omvat informatie over alle beleidslijnen, procedures, maatregelen en instrumenten die worden gebruikt voor het modereren van de inhoud, met inbegrip van algoritmische besluitvorming, en menselijke toetsing, evenals de procedureregels van hun interne klachtenbehandelingssysteem. Het is opgesteld in duidelijke, duidelijke, begrijpelijke, gebruiksvriendelijke en ondubbelzinnige taal en is voor het publiek beschikbaar in een gemakkelijk toegankelijke en leesbare vorm. VLOP’s en VLOSE’s verstrekken de ontvangers van diensten een beknopte, gemakkelijk toegankelijke samenvatting van de algemene voorwaarden, met inbegrip van de beschikbare rechtsmiddelen en verhaalmechanismen, in duidelijke en ondubbelzinnige bewoordingen.

Wanneer een provider content verwijdert omdat die illegaal is, moet hij een voldoende gemotiveerde uitleg geven van de redenen waarom die content in kwestie als illegale inhoud wordt beschouwd.

Aanbieders van intermediaire diensten moeten een duidelijke en specifieke motivering aan alle betrokken ontvangers van de dienst verstrekken voor een van de volgende opgelegde beperkingen:
(a) eventuele beperkingen van de zichtbaarheid van specifieke informatie die door de ontvanger van de dienst wordt verstrekt, met inbegrip van het verwijderen van inhoud, het onmogelijk maken van toegang tot inhoud of het verlagen van inhoud;
(b) opschorting, beëindiging of andere beperking van geldelijke betalingen (monetisering);
(c) gehele of gedeeltelijke opschorting of beëindiging van de dienstverlening;
(d) opschorting of beëindiging van de rekeningen van de ontvanger.

Punt (a) slaat op het online verbergen van berichten zonder ze te verwijderen.

(artikels 10, 11, 12, 13, 14, 15)

“Uiterlijk op … [drie maanden na de datum van inwerkingtreding van deze verordening] en daarna ten minste eens in de zes maanden publiceren de aanbieders van onlineplatforms in een voor het publiek toegankelijk gedeelte van hun online-interface informatie over de gemiddelde maandelijkse actieve ontvangers van de dienst in de Unie, berekend als een gemiddelde over de periode van de afgelopen zes maanden en, indien een dergelijke methode is vastgesteld, in overeenstemming met de methode die is vastgelegd in de overeenkomstig artikel 25, lid 2, vastgestelde gedelegeerde handelingen.” (Artikel 23 leden 2 en 3 onmiddellijk van toepassing)

Geen verplichte permanente monitoring van gebruikers en aansprakelijkheid van de online platformen

Een belangrijke overwinning voor digitale rechten is de invoering van het voorwaardelijke aansprakelijkheidsregime en het verbod op een algemene toezichtplicht. Dit zorgt ervoor dat de online-inhoud van mensen wordt beschermd tegen massale willekeurige verwijdering, waardoor de vrije stroom van informatie wordt gegarandeerd. Het internet is cruciaal voor de uitoefening van ons recht op vrijheid van meningsuiting, wat vooral belangrijk is voor het werk van mensenrechtenactivisten, klokkenluiders en journalisten. We kunnen geen willekeurige beslissingen toestaan zonder een gebrek aan nauwkeurig onderzoek naar welke inhoud online moet blijven of moet worden verwijderd (artikels 3, 4, 5, 6 en 7).

Kennisgeving van illegale inhoud en aansprakelijkheid van de online platformen

Diensten van online platformen moeten toegang geven aan actie mechanismen die elke persoon of entiteit kan gebruiken om om de aanwezigheid van illegale inhoud aan te geven in hun opvattingen. Deze mechanismen moeten gemakkelijk toegankelijk en gebruiksvriendelijk zijn en zijn verplicht langs elektronische bereikbaar Het is door dit kennisgevingsmechanisme dat ‘daadwerkelijke kennis’, en dus potentiële aansprakelijkheid voor de verspreiding van illegale inhoud, kan ontstaan. Deze kennisgeving moet echter zo nauwkeurig en onderbouwd zijn dat een beheerder van online platformen onrechtmatigheid kan vaststellen zonder een gedetailleerd juridisch onderzoek uit te voeren (artikel 14).

Zie verder in de tekst van dit artikel.

Daadwerkelijke kennis van illegale inhoud kan ook worden verkregen door vrijwillige onderzoeken van een platform door een “trusted flagger” en Digitale Diensten Coördinator of door de ontvangst van rechterlijke bevelen.

DSA legt gerichte reclame aan banden en beperkt de categorieën die er voor gebruikt mogen worden

Aanbieders van onlineplatforms die advertenties presenteren op hun online-interfaces moeten ervoor zorgen (a) dat het duidelijk is dat het om reclame gaat. (b) Dat het duidelijk is welke natuurlijke persoon of rechtspersoon achter de reclame zit. Als dat niet dezelfde is, dan deze die voor de reclame heeft betaald. (c) Ook zinvolle informatie over de belangrijkste parameters die worden gebruikt om de ontvanger van advertentie te bepalen, moet worden vrijgegeven door de aanbieder van het online platform. En waar van toepassing, moet ook informatie verstrekt worden over hoe deze parameters kunnen worden gewijzigd. Die informatie moet direct en gemakkelijk toegankelijk zijn vanaf de advertentie.

Aanbieders van onlineplatforms mogen geen reclame aanbieden op basis van profilering in de zin van artikel 4, punt 4, van Verordening (EU) 2016/679 met gebruikmaking van speciale categorieën gevoelige gegevens als bedoeld in artikel 9, lid 1 van verordening (EU) 2016/679. Hier letterlijk citaat:

“Verwerking van persoonsgegevens waaruit ras of etnische afkomst, politieke opvattingen, religieuze of levensbeschouwelijke overtuigingen, of het lidmaatschap van een vakbond blijken, en verwerking van genetische gegevens, biometrische gegevens met het oog op de unieke identificatie van een persoon, of gegevens over gezondheid, of gegevens met betrekking tot iemands seksueel gedrag of seksuele gerichtheid zijn verboden.”

Aanbieders van voor minderjarigen toegankelijke onlineplatforms moeten passende en evenredige maatregelen treffen om een hoog niveau van privacy, veiligheid en beveiliging van minderjarigen bij hun dienstverlening te waarborgen (artikels 24 en 30).

DSA staat voor snelle verwijdering illegale content en ontzeggen van toegang aan veelplegers en recidivisten

Providers van sociale netwerkdiensten moeten na ontvangst van een bevel om op te treden tegen illegale inhoud, als die opdracht komt van relevante nationale juridische of administratieve autoriteiten, op basis van het toepasselijke EU- of nationale recht, en in overeenstemming met het EU-recht , de autoriteit die het bevel heeft gegeven of een andere autoriteit die in het bevel is vermeld, onverwijld op de hoogte stellen van eventuele follow-up die aan het bevel is gegeven, met vermelding of en wanneer het bevel is toegepast (artikel 8 en 9).

Aanbieders van onlineplatforms schorten, voor een redelijke periode en na een voorafgaande waarschuwing, de levering van hun diensten op aan ontvangers van de dienst die vaak duidelijk illegale inhoud aanbieden (artikel 20).

VLOP’s en VLOSE’s moeten risico’s inschatten en beperken

Aanbieders van zeer grote onlineplatforms moeten de alle systeemrisico’s die voortvloeien uit de design ervan zorgvuldig analyseren en beoordelen, met inbegrip van hun algoritmische systemen, om de risico’s van de werking en het gebruik van hun diensten in de EU te kunnen inschatten. De volgende systeemrisico’s zijn van belang; (a) de verspreiding van illegale content; (b) alle feitelijke of voorzienbare negatieve effecten op de uitoefening van grondrechten, met name het grondrecht op menselijke waardigheid, de eerbiediging van het privé- en gezinsleven, de bescherming van persoonsgegevens, vrijheid van meningsuiting en informatie, met inbegrip van de vrijheid en het pluralisme van de media, het verbod op discriminatie, de rechten van het kind en consumentenbescherming; (c) alle feitelijke of voorzienbare negatieve effecten op het maatschappelijk debat en verkiezingsprocessen, en de openbare veiligheid.

Bij het uitvoeren van risicobeoordelingen houden aanbieders van zeer grote onlineplatforms met name rekening met de vraag of en hoe de volgende factoren een van de systeemrisico’s van hun design inhouden door (a) het ontwerp van hun aanbevelingssystemen en elk ander relevant algoritmisch systeem; (b) hun content moderatiesystemen; (c) de toepasselijke voorwaarden en de handhaving ervan; (d) systemen voor het selecteren en presenteren van advertenties; e) gegevensgerelateerde praktijken van de aanbieder.

Aanbieders van zeer grote onlineplatforms bewaren de bewijsstukken van de risicobeoordelingen gedurende ten minste drie jaar na de uitvoering van de risicobeoordelingen, en delen deze op verzoek mee aan de Commissie en aan de Digitale Diensten Coördinator (Artikel 26).

Aanbieders van zeer grote onlineplatforms moeten redelijke, evenredige en doeltreffende risicobeperkende maatregelen nemen die gericht zijn op overeenkomstig artikel 26 vastgestelde specifieke systeemrisico’s, waarbij bijzondere aandacht wordt besteed aan de gevolgen van dergelijke maatregelen voor de grondrechten (artikel 27).

VLOPs en VLOSE’s moeten jaarlijks onafhankelijke audits toestaan

VLOPs en VLOSE’s moeten jaarlijks onafhankelijke audits toestaan over hun verplichtingen vast gelegd in (a) Chapter III (artikels 10 tot 37) en (b) alle verbintenissen die zijn aangegaan op grond van de in de artikelen 35 en 36 bedoelde gedragscodes en de in artikel 37 bedoelde crisisprotocollen.

Aanbieders van zeer grote onlineplatforms verlenen de organisaties die de audits op grond van dit artikel uitvoeren de medewerking en bijstand die nodig is om hen in staat te stellen die audits op een effectieve, efficiënte en tijdige manier uit te voeren, onder meer door hun toegang te verlenen tot alle relevante gegevens en gebouwen en door mondelinge of schriftelijke vragen te beantwoorden. Zij onthouden zich van het belemmeren, overmatig beïnvloeden of ondermijnen van de uitvoering van de controle.

De organisaties die de audits uitvoeren, zorgen voor voldoende vertrouwelijkheid en beroepsgeheim met betrekking tot de informatie die in het kader van de audits wordt verkregen van de aanbieders van zeer grote online platforms en derden, ook na beëindiging van de audits. (artikel 28)

Opmerkingen en voorlopige evaluatie

Voor en algemene evaluatie die door verschillende leden van ‘Digital Services Act Human Rights Alliance’, DSAHRA, gedeeld werd, een citaat van Eliska Pirkova van Access Now (mijn vertaling uit het Engels):

“Maar het moeilijkste deel voor de DSA komt nog waarschijnlijk: de succesvolle handhaving ervan. De komende jaren zullen de kracht van het EU-regelboek voor content moderatie bewijzen en of het zijn taak kan waarmaken. Access Now zal de handhaving van DSA blijven volgen en zal blijven aandringen op een mensenrechtengerichte benadering van content moderatie in heel Europa.”

DSA heeft wel wapens in handen om vrij snel een einde te maken aan click farms en social bots, maat zal dan wel doortastend moeten optreden. Als je ziet wat er allemaal van de VLOP’s gevraagd wordt, dat is niet niets: transparantie en verantwoording, audits, risico’s inschatten en beperken, dat is allemaal het tegengestelde van wat ze gewoon zijn te doen. De EU heeft wel een stok achter de deur, maar de winkel sluiten kan de EU niet. Dat zouden trouwens ook de gebruikers niet leuk vinden. Het zou in alle geval slim zijn het ontplooien van alternatieve sociale netwerken te stimuleren, zodanig dat gebruikers kunnen overstappen, daar bieden zich nu mogelijkheden.

Een belangrijk argument om het ontplooien van alternatieve sociale netwerken te stimuleren vind je in de evaluatie van EDRi. Die is ook bij EDRi positief, maar zeggen ze, DSA reglementeert de zichtbare gerichte reclame maar niet de onzichtbare tracking systemen. Letterlijk citaat (mijn vertaling uit het Engels):

“Hoewel de advertentietechnologie-industrie vaak beweert nuttig te zijn voor mensen door meer ‘relevante’ advertenties aan te bieden, wordt ze vooral gekenmerkt door een alomtegenwoordig systeem van alomtegenwoordig 24/7 online bedrijfssurveillance. Google-trackers zijn ingebed in bijna 90% van de gratis Android-apps en in meer dan 87% van alle websites. De gegevens van mensen worden massaal geëxtraheerd om gedetailleerde profielen te maken, en aangezien deze trackers onzichtbaar zijn voor gebruikers, kunnen mensen niet op een zinvolle manier bezwaar maken tegen toezicht door de advertentietechnologie-industrie. Als u de controle verliest over de inhoud die u ziet, beperkt u rechtstreeks uw vrijheid van informatie en meningsuiting, maakt u discriminerende praktijken door adverteerders mogelijk en versterkt u sociale stereotypering. Daarom is het teleurstellend dat de EU op surveillance gebaseerde online advertenties niet volledig heeft uitgefaseerd.”

Volgens de Global Disinformation Index wordt jaarlijks ten minste $ 235 miljoen aan inkomsten gegenereerd uit advertenties die worden weergegeven op extremistische en desinformatie websites. Dit is een probleem dat niet opgelost is door DSA.

De DSAHRA heeft niet alles binnen gehaald, maar wel veel. Zo had ze ook voorgesteld om politiediensten uit te sluiten als kandidaat ‘trusted flagger’ omdat de Alliantie terecht vreest dat in landen als Polen en Hongarije, politiediensten misbruik zouden kunnen maken van hun aanstelling. Dit voorstel heeft het niet gehaald. (Het betreft hier artikel 8). Aangezien de ‘trusted flaggers’ aangemeld moeten worden bij de Commissie, en deze data publiek worden gemaakt, kan er alsnog ingegrepen worden. Burgers kunnen bij misbruik dus een klacht indienen bij het Bestuur.

Artikel 7 (1a), voorgesteld door het Europees Parlement, dat wou verbieden dat wettelijk verplichte geautomatiseerde besluitvorming zou worden opgelegd aan onlineplatforms, is niet weerhouden in de uiteindelijke wet.

Een voorstel dat de bescherming van versleutelde online communicatie zou hebben versterkt, heeft de definitieve tekst ook niet gehaald, maar het gebruik van encryptie is niet aan banden gelegd in Europa. In de VS is het een ander verhaal, zelfs Signal is er niet veilig voor de NSA.

De eis voor het interoperabel zijn van berichtenapplicaties, onderdeel van de Wet Digitale Markten, DMA, biedt een opening voor alternatieve berichtendiensten. Maar er is meer onderzoek nodig naar de doenbaarheid (feasability) op nationale schaal van zo’n groot project. Wat niet helpt is wat een klein deel van de Europese intelligentsia verkondigt in de media. Wat bijvoorbeeld Patrick Van Eecke, professor ICT-recht aan de Uantwerpen zegt, dat er een protectionistisch reukje rond de DSA wetgeving hangt, is beneden alle peil. Hoezo? De EU krijgt felicitaties van Obama en de Amerikaanse Frances Haugen. En het Amerikaanse Center for Democracy&Technology wil DSA gaan propageren in de VS. Protectionistisch?

Advertisement

One comment

  1. Daniël Verhoeven · September 26

    Een zeer interessante nota voor onderzoekers werd gepubliceerd door Mathias Vermeulen, PhD in EU-recht, over de reikwijdte van de regeling voor het delen van gegevens onder de Digital Services Act, evenals welke onderzoekers toegang zullen krijgen tot gegevens binnen het kader, en met behulp van wat werkwijze. Vervolgens evalueert ze de richtlijnen en toezeggingen die zijn opgenomen in de praktijkcode van de Europese Unie inzake desinformatie en de gedragscode van het European Digital Media Observatory, inclusief hoe deze instrumenten zich tot elkaar verhouden en binnen het bredere regime functioneren. Je vindt ze op:
    https://tsjournal.org/index.php/jots/article/view/84/31

    Like

Comments are closed.