Promotieonderzoek

 

Big Data en Mededinging

 

Hieronder leest u een samenvatting van het onderzoek. Leest u liever het gehele onderzoek (in PDF), klik dan op de knop ‘Lees mijn onderzoek’.

BIG DATA EN MEDEDINGING

Lees de uitgebreide samenvatting van mijn promotieonderzoek (PDF).

Samenvatting onderzoek “Big Data en Mededinging”

ONDERZOEKSVRAGEN

Welke effecten hebben het gebruik van machine learning in Big Data op de markttransparantie en de mededinging? Hoe kunnen de kunstmatige intelligentie en het economisch recht, in een wederkerig systeem, gezamenlijk worden ontwikkeld om tot Ethical Systems Design te komen? 

AANLEIDING EN INLEIDING ONDERZOEK

De risico’s van Big Data voor de privacy zijn algemeen bekend, maar de gevaren voor de markt(werking) zijn tot op heden amper onderzocht.[i] Toezichthoudende instanties signaleren echter dat het gebruik van Big Data mededingingsbeperkend kan werken, met alle gevolgen voor de onverstoorde marktwerking van dien, terwijl ze niet goed weten hoe ze hiermee moeten omgaan onder het huidig economisch recht.[ii] De autoriteiten verkrijgen veelal geen inzicht van de marktpartijen in hun ondernemingen over de wijze van implementatie en hantering van Big Data en daarnaast ontbreekt er technologie (neutrale) wetgeving. Mijn onderzoek richt zich op machine learning in Big Data, waarbij de voorheen voor analyse noodzakelijke menselijke input, is vervangen door een zelflerend algoritme[iii]. Dit is de reactie op de sterk toenemende omvang en steeds meer heterogene aard van de beschikbare Big Data. De opkomst van, bijvoorbeeld het internet of things en e-health zal tot nog omvangrijker en heterogene data leiden, met een toegenomen belang voor machine learning in Big Data tot gevolg. De noodzaak om de gevolgen hiervan voor het recht te onderzoeken, neemt daarom alleen maar toe.[iv] Dit onderzoek spitst zich toe op de effecten van machine learned algoritmes (hierna: zelflerende algoritmes) voor de mededinging en het economisch recht en beoogt het ontwerp van een kader voor de wederzijdse ontwikkeling van zowel de algoritmes als het economisch recht. 

MEDEDINGING

Mededinging gaat ervan uit dat ondernemingen elkaars gedrag kennen en daarop reageren zodat een steeds beter aanbod ontstaat. Daarmee vereist concurrentie enerzijds een zekere mate van transparantie, zodat de marktdeelnemers elkaars gedrag kunnen kennen. Anderzijds kan transparantie er ook toe leiden dat er juist een vermindering van de concurrentie optreedt doordat er (on)bewuste afstemming van gedrag plaatsvindt.[v]  Daarnaast kan de mededinging gebaat zijn bij meer transparantie, bijvoorbeeld wanneer een onderneming met marktmacht haar unieke kennis en/of vaardigheden die zij bezit uitbuit.[vi] 

(MARKT)TRANSPARANTIE

De opkomst van Big Data vergroot de transparantie van de markt, doordat er steeds meer data beschikbaar is. Door middel van zelflerende algoritmes kan deze data vervolgens gebruikt worden voor marktrelevante voorspellingen. Zelflerende algoritmes kunnen de mededinging vervolgens beïnvloeden. Tegenwoordig vindt dit al plaats in bepaalde (online) prijsafstemmingen. Een zelflerend algoritme kan bijvoorbeeld de vliegticketprijs van de (wisselende) prijsleider(s) volgen, waardoor er sprake is van een vorm van afstemming. De transparantie van de markt (in het voorbeeld de gehanteerde prijs), kan zo dus mededingingsbeperkende gevolgen hebben.

ETHICAL SYSTEM DESIGN

Zelflerende algoritmes zijn geprogrammeerd om het denkvermogen van de mens te benaderen. De methoden die hierbij gehanteerd worden, zijn gestoeld op de wiskunde van de logica en de statistiek. Logicamodellen zijn transparant. Een algoritme gestoeld op de logica doet namelijk in de kern eigenlijk niks anders dan deductief of aanleidinggevend redeneren. Zelflerende algoritmes zijn echter gestoeld op de statistiek en zoeken naar patronen in data om bepaalde voorspellingen te kunnen doen (data-mining). Bij zelflerende algoritmes is er geen transparantie, omdat zij zichzelf corrigeren en als een black-box werken. De vraag rijst dan, wat voor effecten deze intransparante zelflerende algoritmes hebben voor de (markt)transparantie en de mededinging. Ethical Systems Design[vii]  stelt zich de vraag naar de moraal als sturende factor in algoritmes. Door Ethical Systems Design kan de werking van een algoritme, middels moraal, gestuurd worden. Potentieel betekent dit, dat men een zelflerend algoritme kan ontwikkelen dat niet de mededinging zal beperken, doordat het in zijn werking al rekening houdt met de (rechts)norm als factor. Het systeem houdt zich aan de norm doordat die erin is ingebed. Middels deze manier is er sprake van een stap tot de vereniging van het recht en de technologie.

ECONOMISCH RECHT

Het economisch recht, meer specifiek: de rechtsregels ten aanzien van de onverstoorde marktwerking, ziet zowel toe op de concurrentie op de effectenmarkten als op de markten in het algemeen. Het economisch recht gaat uit van de gedachte dat elke onderneming zelfstandig haar beleid en bedrijfsstrategie op de markt dient te bepalen, maar intelligent marktgedrag is hierbij niet verboden.[viii] Zoals hierboven aangegeven is, is transparantie een vereiste om concurrentie te realiseren, maar kan te veel transparantie ook leiden tot een vermindering van concurrentie. Transparantie is zodoende zowel de mededingingsrechtelijke oplossing als tegelijk het probleem. De technologische vooruitgang in Big Data, zoals Machine Learning, verandert de werking van markten. Hoe dient het economisch recht hiermee om te gaan? Zoals hierboven gesteld, kan het wellicht mogelijk zijn een zelflerend algoritme in zijn ‘gedrag’ rekening te laten houden met de rechtsnorm, zodat het recht en de technologie verenigd worden. Een tweede stap is dan de aanpassing van de vage en onbepaalbare economische rechtsnormen naar heldere rechtsnormen. Op deze manier wordt er een ‘checks and balances’ gecreëerd tussen het recht en de technologie. 

CONCLUSIE 

Zelflerende algoritmes zijn gefundeerd op statistiek en werken daarmee op een intransparante wijze die moeilijk verenigd kan worden met de logica die ten grondslag ligt aan het recht. De jurist kent echter het recht en de wiskundige zijn algoritme, maar beiden vertrekken zij veelal vanuit hetzelfde uitgangspunt, namelijk: de logica. Als de logica de gemene deler is tussen beide disciplines, dan kan de vereniging van beide disciplines ‘just an argument away’ zijn. Mijn onderzoek zal een kruisbestuiving tussen het economisch recht en de kunstmatige intelligentie tot stand brengen. Door middel van interdisciplinair onderzoek zal de technologie en het recht beide worden verenigd. Naar aanleiding van dit interdisciplinaire onderzoek en de analyse van het positieve recht, kunnen er de noodzakelijke (handhavings)aanbevelingen[ix] worden gedaan ter verbetering van de effectiviteit van het economisch recht.

Eindnoten

[i] Een eerste analyse is the vinden in: A. Ezrachi & M.E. Stucke, ‘Artificial Intelligence & Collusion: When computers inhibit competition’, The University of Oxford Centre for Competition Law and Policy, 9 april 2015, en in M.E. Stucke & A.P. Grunes, ‘Big Data and Competition Policy’, Oxford University Press, first edition 2016. Verdere analyse is beperkt tot enkele artikelen en blogposts.

[ii] Zie de voordracht van Eurocommissaris Margrethe  Vestager op 16 maart 2017, citaat: “We need to think especially carefully about the answers that algorithms. The trouble is, it’s not easy to know exactly how those algorithms work … and yet the decisions they make affect us all. Companies may be using algorithms to make their price-fixing agreements more effective.”, download: https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en en  M. Lewis, ‘Flash Boys: A Wall Street Revolt’, W. W. Norton & Company; 1st edition, 31 maart 2014.

[iii] Zie het volgend helder artikel inzake zelflerende algoritmes en ‘the opacity problem’: J. Burrell, ‘How the machine ‘thinks’: Understanding opacity in machine learning algorithms’, Big Data & Society; January–June 2016: 1–12.

[iv] (Internationale) financiële toezichthouders signaleren dat bij elektronische (beurs)handel, zoals bijvoorbeeld bij High Frequency Trading (HFT-handel), ongewenste nieuwe risico’s optreden. In dit kader heeft de Nederlandse AFM in maart 2017 de minister van Financiën opgeroepen te pleiten voor een versterking van het Europees (datagedreven) toezicht, zie: AFM, ‘AFM Agenda 2017 – Toezicht in tijden van verandering’, AFM Agenda 2016-2018, download: https://www.afm.nl/nl-nl/professionals/nieuws/2017/mrt/agenda-2017. Diverse politieke partijen, waaronder bijvoorbeeld D66, zijn zich ook bewust van de ongewenste risico’s van Big Data, zie: https://d66.nl/content/uploads/sites/2/2016/06/Techvisie-online.pdf. De Amerikaanse financiële toezichthouder CFTC vroeg inzake de HFT-handel zelfs consultatie en bijstand aan private partijen, omdat er sprake is van een informatie-asymmetrie, zie: http://www.cftc.gov/idc/groups/public/@newsroom/documents/file/federalregister090913.pdf p. 9. Tot slot signaleert de Europese Commissie risico’s bij het gebruik van algoritmes voor de mededinging. Zie wederom de voordracht van Eurocommissaris Margrethe Vestager op 16 maart 2017.

[v] Zie o.a J.M. Clark’s ‘Remedial Imperfections Theory’ die hij introduceerde in zijn werk ‘towards a concept of workable competition’ en recentere literatuur inzake oligopolistische interdependentie, zoals: S. Bishop & M. Walker, ‘The Economics of EC Competition Law: Concepts, Application and Measurements’, Sweet & Maxwell; 3th edition.

[vi] Dit is in wezen wat is gebeurd in de Microsoft-zaak (COMP/C-3/37.792 Microsoft) en wat wellicht kan gebeuren in de Google-zaak.

[vii] Ethical System Design is een onderzoeksgebied binnen de wetenschap van de kunstmatige intelligentie.

[viii] HvJ, 8 juli 1999, C 49/92 P (SuikerUnie).

[ix] Uit de literatuur genoemd onder de voetnoten nummer 2 en 4 blijkt dat deze handhavingsaanbevelingen noodzakelijk zijn.

Neem contact op

5 + 12 =