Getting Beyond “Big is Bad”: Rethinking the Impact of Platforms on Competition through the Lens of Market Distortion

Getting Beyond “Big is Bad”: Rethinking the Impact of Platforms on Competition through the Lens of Market Distortion

Au-delà de la taille : repenser les effets des plateformes sur la concurrence au travers de la distorsion des marchés

by Jennifer A. Quaid

La version française est suivi.

Scroll down for the French translation.

Platforms and competition reform

Are platform operators, online marketplaces, and digital gatekeepers, however defined, beneficial engines of disruption or damaging agents of distortion?

From the perspective of competition law and policy, the answer is a maddening “both,” depending on the conduct or the circumstances. As certain platforms have emerged and grown in size and influence, so have concerns about the impact of the features of this business model, typically characterized by network effects, multi-sided markets, and access to/control over data, on the economic landscape.

It should come as no surprise, then, that developing a platform governance framework that can distinguish between benefits and harms in the dynamic, rapidly changing conditions of digital markets has been top of mind among major competition authorities. However, as certain platforms have emerged and grown in size and influence, so have concerns about the impact of the features of this business model, typically characterized by network effects, multi-sided markets and access to/control over data, on the economic landscape.

The pace of competition reform internationally has varied. The European Union has advanced furthest in terms of formal legislative instruments adopted, such as the Digital Markets Act. In the United States, a sextet of bills before Congress, including Senate Bill 2992, the American Innovation and Choice Online Act were introduced in 2021 with the goal of modernizing antitrust and reigning in the power of platforms. Though these legislative efforts have stalled, the Federal Trade Commission (FTC) and Department of Justice, Antitrust Division (DOJ) have nonetheless moved forward on some fronts, relying on President Biden’s Executive Order and conducting a 2022 joint public inquiry into modernizing merger guidelines.

In comparison, Canada lags its peers on determining how to use competition law and policy to respond to digital and data-driven markets, including platform behaviour. A limited set of preliminary reforms was enacted in June 2022 as part of Bill C-19, an omnibus budget bill, the first amendments to the Competition Act in 13 years. In a nod to the digital transformation of the economy, the changes included a prohibition on drip pricing and the addition of new factors to consider when assessing the conduct of dominant or merging firms, such as network effects, non-price impacts such a choice, quality, and consumer privacy as well as impacts on the nature and extent of innovation and entrenchment of an incumbent’s position.

However, these express references to artefacts of technoscientific capitalism are unlikely to have much effect until a second, more substantial stage of reforming competition law is complete. Though the timing is unknown, it is expected to begin in the next year now that a recent public consultation on modernizing the Competition Act has concluded.

Policymakers’ preoccupation with a small group of enormous platforms is behind the momentum to develop rules specifically tailored to them, particularly as competition agencies recognize the importance of compatible regimes to enable what they see as the needed collective enforcement to check the power of the largest global digital players. The challenge has been to fit these new business models into existing methods of analysing competitive harm. While many naturally include towards seeing platform behaviour as a form of unilateral conduct by a dominant player, bringing abuse of dominance cases against them is challenging. In Canada, successful abuse cases are exceedingly rare; applying the exacting technical rules to platforms is expected to be exceedingly difficult as it requires both evidence that platforms are “dominant” and that they have engaged in abusive conduct that causes quantifiable harm to either a competitor or to competition in the market (a 2022 addition).

While the direction of Canadian reform on abuse of dominance remains unclear, it may follow reform efforts in other countries, which have sought to change how we view the competitive impact of “dominant” firms by drawing bright lines between the largest platforms and all others based on readily determinable metrics, such as market share, volume of commerce, number of users, or market capitalization. Where platforms meeting these thresholds engage in certain practices, like self-preferencing or exclusionary gatekeeping, this is treated as either inherently harmful (no evidence of harm required) or presumptively harmful (rebuttable with evidence).

While few debate the need to scrutinize the behaviour of the largest platforms carefully, size-based ex ante regulation of platforms chafes against a core tenet of classical economic theory – that neither market share nor absolute size should be presumed to confer market power. The perception that emerging platform governance rests, even partially, on the idea that “big is presumptively bad” has fueled strong criticism in competition circles and mobilized those opposed to competition reform more broadly.

Market distortion

Against this backdrop, I believe we should explore an alternate basis for ex ante regulation of certain platform behaviour that remains faithful to the basic economic principles embedded in competition law. Tying regulation to sheer size may not be the best path forward. Why not instead draw on the underlying rationale of prohibiting deceptive marketing – market distortion – to focus on platform conduct that by its nature suppresses or otherwise interferes with the competitive rivalry that would otherwise occur?

Deceptive marketing creates market distortion by allowing dishonest or careless market participants to exploit their counterparty (consumers, suppliers, etc.)’s expectation that they can make choices based on accurate and reliable information. Without the existence of this expectation (trust), and the resulting reliance it produces, deception would be much more difficult and costly to pull off.

The expectation of sufficient transparency to allow informed rational choice is considered a necessary condition for the existence of market-based competition. Where this expectation does not hold, the resulting market distortion has two different negative effects on aggregate allocative efficacy (the ability of markets to foster efficient use of scarce resources).

The first is on customers or consumers, who will either pay higher prices or who will acquire goods and services on suboptimal terms because they have been misled on a material point.

The second effect is on other market participants who have not been deceptive and are hampered in their ability to compete. The harm to them is twofold. First, they are deprived of the chance to compete for customers under conditions that allow customers to make informed comparisons. This may cause honest firms to lose market share, be unable to continue to participate in the market, or to abandon entry or expansion efforts. The second impact is intangible and general – it undermines confidence in the market mechanism itself if cheating (or carelessness) goes unchecked. This could cause withdrawal from the market or create a perverse incentive by honest firms to resort to the deceptive behaviours that have given cheaters an advantage. In this latter case, market participants may be better off, but customers – and the market itself – are worse off with even less ability to determine which products or services best meet their needs.

There is already precedent for sanctioning platform behaviour as deceptive marketing. The most prominent example is the FTC’s 2019 Stipulated Order issued against Facebook in 2019, following revelations that Facebook had failed to inform users about its data-sharing arrangements with third-parties. The Competition Bureau brought a similar action against Facebook in relation to Canadian users that was settled in 2020. While both these cases are counted as successful enforcement actions against platforms, the Canadian settlement is short and does not offer much insight into the rationale for its decision to apply the deceptive advertising provisions beyond the obvious allegation of deceiving users.

What I propose is to intentionally build on the idea of market distortion to create a principled basis for extending the ambit of the prohibition to include other forms of platform conduct beyond what has conventionally been understood to constitute deceptive or misleading conduct.

Can the concept of market distortion create a foundation for robustly analysing the impact of platforms on competition?

Essentially, the prohibition on deceptive or misleading marketing sanctions unilateral conduct by a market participant, independent of size or economic power, where this conduct is presumed to distort the normal interaction between the forces of supply and demand.

This approach offers certain advantages over size-based regulation. The most obvious is that platforms are engaged in a wide number of promotional and advertising activities that fit within the conventional deceptive marketing paradigm.

Next, many platforms operate in a business environment characterized by multi-sided markets. They could thus be subject to the dual concerns of prohibiting deceptive marketing: protection of consumers and protection of rule-abiding firms. Beyond this, focusing on the features and conditions that enable platforms to disregard the basic rules of engagement creates conceptual space to think about the novel ways that platforms may unfairly or abusively leverage information asymmetries and new business models, particularly around the collection, analysis, and sharing of data.

Finally, aside from avoiding the pitfalls of reliance on size, this approach offers a workable solution that addresses two important considerations for Canadian enforcement. First, the proposal can be implemented immediately using existing rules; there is no need to wait for a second phase of competition reform. Second, it is tailored to the core mandate of the Competition Bureau (promoting competition in Canada). Reframing the central concern of enforcement against platforms as one of market distortion and not size will empower the Bureau to concentrate its scarce resources on investigations focused on what happens in Canadian markets and to Canadian consumers, with particular attention on the potential for Canadian-based firms that may otherwise be overlooked given their smaller size to engage in market-distorting conduct. This kind of targeted enforcement also affords Canada a way to contribute meaningfully to the international effort of platform governance within the limits of institutional capacity and geopolitical status as a trade-dependent middle power.


la version française

Au-delà de la taille : repenser les effets des plateformes sur la concurrence au travers de la distorsion des marchés

Les plateformes dans la réforme de la concurrence

Les opérateurs de plateformes, les marchés en ligne et les « portiers » du monde numérique, définis de quelconque manière, sont-ils des éléments disruptifs bénéfiques ou alors des agents nocifs de distorsion?

Aux yeux du droit de la concurrence, les deux réponses peuvent être vraies selon la conduite et les circonstances. Or, il est indéniable que l’arrivée et la croissance de certaines plateformes a progressivement soulevé des questions concernant les effets économiques découlant de l’adoption des pratiques commerciales qui caractérisent ce modèle d’affaires, dont les effets de réseau, les marchés multifaces, l’accès aux données et leur contrôle.

Le rythme auquel différents pays entament des réformes à leurs régimes de droit de la concurrence varie. L’Union européenne est en tête du peloton vu de la perspective des textes législatifs adoptés, notamment la législation sur les marchés numériques (le DMA). Du côté des États-Unis, un sextuor de projets de loi a été présenté au Congrès en 2021, dont le Senate Bill 2992, l’American Innovation and Choice Online Act, qui ont pour but de moderniser le droit antitrust afin de limiter le pouvoir des plateformes. Bien que les efforts législatifs aient ralenti, la Federal Trade Comission (FTC) et l’Antitrust Division du Department of Justice (DOJ) ont tout de même fait quelques poussées grâce au décret-loi du président Biden, menant à une enquête publique conjointe, en 2022, sur la modernisation des lignes directrices en matière de fusions.

Lorsqu’on compare le Canada à ses pays pairs, on remarque un retard dans l’élaboration de principes directeurs et de règles destinées à adapter le droit de la concurrence aux défis posés par l’importance croissante des marchés numériques dominés par les données, notamment dans le comportement des plateformes. Une réforme préliminaire a été promulguée en juin 2022 dans le cadre du projet de loi C-19, un projet de loi omnibus sur le budget, la première modification à la Loi sur la concurrence en 13 ans. Proposée dans le but de mieux refléter dans la Loi la transformation numérique de l’économie intervenue depuis 2009, les changements incluent une interdiction des prix partiels et l’ajout de nouveaux facteurs à considérer dans l’évaluation du caractère anticoncurrentiel d’agissements des entreprises dominantes ou de fusion des entreprises, tels que les effets de réseau, les effets hors prix  comme ceux affectant le choix, la qualité et la protection des renseignements personnels des consommateur·trice·s, en plus des conséquences sur la nature et la portée des innovations, et le renforcement de la position sur le marché des principales entreprises en place.

Ces références directes à des attributs du capitalisme technoscientifique ont toutefois peu de chances de produire des résultats palpables jusqu’à ce qu’une réforme subséquente et plus substantielle de la Loi sur la concurrence ne soit arrêtée. On s’attend, sans avoir d’échéancier précis, à ce que celle-ci commence au courant de l’année prochaine, une fois que le gouvernement ait pu analyser les commentaires reçues dans le cadre une  consultation publique à propos la modernisation de la Loi sur la concurrence ayant conclu le 31 mars dernier.

Les décideurs politiques canadiens sont en retard dans l’élaboration de règles visant un petit nombre d’énormes plateformes, alors que d’autres autorités de la concurrence reconnaissent l’importance de la compatibilité des régimes pour mettre en œuvre ce qu’ils considèrent comme un effort collectif nécessaire à un contrôle du pouvoir des géants multinationaux du numérique.  Le défi est d’intégrer ces nouveaux modèles d’affaires aux méthodes existantes d’analyse du préjudice concurrentiel. Bien que beaucoup aient naturellement tendance à voir les agissements des plateformes comme des comportements unilatéraux d’un acteur dominant, il est difficile, en vertu du droit actuel, d’intenter des recours en abus de position dominante contre eux. Les cas d’abus sont très rares au Canada. L’application des règles hautement techniques aux plateformes pose un défi considérable, étant donné qu’il faut à la fois prouver qu’une plateforme est « dominante » et qu’elle a eu des comportements abusifs qui ont causé des dommages quantifiables soit au concurrent, soit à la concurrence dans le marché (cette dernière possibilité est un ajout datant de 2022).

Bien que la trajectoire des réformes canadiennes sur l’abus de position dominante ne soit pas encore claire, elle pourrait suivre les efforts de réforme d’autres pays qui ont changé leur perspective sur le préjudice concurrentiel des entreprises « dominantes » en distinguant clairement les plateformes géantes des autres plateformes, selon des mesures disponibles et quantifiables comme la part de marché, le volume de commerce, le nombre d’utilisateurs ou la capitalisation boursière. Lorsque les plateformes qui remplissent ces critères usent de certaines pratiques comme l’autopréférence et l’application de politiques d’accès restrictives, ce comportement est traité soit comme un danger en soi (sans preuve de préjudice) soit comme un danger présumé, auquel cas une preuve du contraire pourrait l’exonérer.

Si l’idée que nous devons avoir dans le collimateur les comportements des plateformes géantes fait presque unanimité, il reste que ces règlements ex ante fondés sur la taille érodent un principe fondateur de l’école classique économique : qu’on ne devrait pas présumer que la part de marché ou la taille absolue confère un pouvoir économique. Un fer de lance des critiques de la réforme sur la concurrence est que la gouvernance des plateformes repose, du moins partiellement, sur la présomption que les grandes entreprises sont plus nocives, un argument autour duquel s’est mobilisé l’opposition à une réforme de la concurrence en général.

Distorsion du marché

Je crois donc, considérant cette situation, que d’autres avenues régulatrices ex ante devraient être explorées pour encadrer ces comportements des plateformes qui demeurent fidèles à l’esprit des principes économiques entérinés dans la loi sur la concurrence. Il n’est peut-être pas idéal de rattacher la régulation purement à la taille. En échange, la logique sous-jacente de l’interdiction des pratiques commerciales trompeuses (créatrices de distorsions du marché) pourrait être un point de départ pour cerner les comportements des plateformes qui briment ou interfèrent avec la rivalité concurrentielle qui se produirait naturellement.

Les pratiques commerciales trompeuses engendrent des distorsions dans le marché en permettant à ses acteurs malhonnêtes ou négligents d’exploiter l’entente selon laquelle leur contrepartie (consommateur, fournisseur, etc.) peut s’attendre à de l’information fiable et précise. Sans ce lien de confiance et, par conséquent, de dépendance, il serait beaucoup plus difficile et couteux de tromper.

Cette attente d’une transparence suffisante à la prise de choix éclairés et rationnels est une condition nécessaire à l’existence d’une économie de marché. Lorsque ce lien de confiance est brisé, la distorsion du marché qui en résultera aura deux effets nocifs pour l’efficacité allocative globale (la capacité des marchés à encourager un usage efficace de ressources limitées).

Le premier effet est celui sur les consommateur·trice·s, qui vont soit payer plus cher ou recevoir des biens et services inférieurs, car iels ont été induits en erreur par rapport à un élément important.

Le deuxième effet est que le degré de concurrence des acteurs honnêtes du marché sera amoindri. Le tort que cela leur causera est double. D’abord, ils ne pourront pas courtiser la clientèle dans un environnement où cette clientèle fait des comparaisons éclairées.  Ainsi, les entreprises honnêtes perdent des parts de marché, ne peuvent plus continuer de participer au marché, ou doivent se résigner à abandonner leurs efforts pour le percer ou y prendre expansion. L’autre conséquence est intangible et générale : la perte de confiance envers les mécanismes du marché causée par le libre cours de la tricherie ou de la négligence. En réponse, les entreprises honnêtes pourraient soit se retirer du marché, soit être incitées à participer aux comportements trompeurs qui ont donné un avantage aux tricheurs. Dans ce dernier cas, les acteurs du marché s’en porteraient mieux au dépit des consommateur·trice·s (et du marché même), qui sont encore moins capables de discerner quels produits ou services leur conviendraient le mieux.

Il existe des précédents d’approche punitive envers les plateformes ayant des pratiques commerciales trompeuses. L’exemple le plus notoire est le Stipulated Order de la FTC contre Facebook en 2019, lorsqu’il fut révélé que Facebook n’avait pas informé ses utilisateurs de ses ententes de partage de données avec de tierces parties. Des récriminations du même acabit, portées envers Facebook par le Bureau de la concurrence au sujet de ses utilisateur·trice·s canadien·ne·s, ont été réglées en 2020. Si ces deux affaires sont classées parmi les réussites règlementaires à l’égard des plateformes, la décision canadienne est courte et peu loquace quant au raisonnement qui les a menées à appliquer les mesures de pratiques commerciales trompeuses, outre les allégations évidentes d’avoir dupé les utilisateur·trice·s.

Ma proposition serait de construire, à partir du concept de distorsion du marché, un principe fondateur pour étendre la portée de l’interdiction jusqu’à inclure d’autres formes de comportements des plateformes au-delà de ce qu’a pu être considéré d’ordinaire comme un comportement trompeur.

Est-ce que la notion de distorsion du marché peut servir de fondation à une analyse robuste des effets des plateformes sur la concurrence?

L’interdiction des pratiques commerciales trompeuses pénalise les comportements unilatéraux d’un acteur du marché (peu importe sa taille ou son pouvoir économique) lorsqu’on présume que ce comportement crée une distorsion des interactions entre l’offre et la demande.

Ce cadre offre des avantages vis-à-vis des règlementations fondées sur la taille des plateformes. Le plus évident d’entre eux est la foule d’activités promotionnelles et publicitaires tombant dans la définition conventionnelle de pratiques commerciales trompeuses que ces plateformes mettent en œuvre.

Ensuite, comme beaucoup de plateformes opèrent dans un environnement d’affaires caractérisé par des marchés multifaces, ils pourraient être visés simultanément par le souci de protéger les consommateur·trice·s et les entreprises qui respectent les règles. Au delà de ces effets dans le marché, examiner les conditions et les fonctionnalités qui permettent aux plateformes de faire fi des fondements du lien de confiance ouvre un espace conceptuel de réflexion sur les leviers novateurs que les plateformes trouveront pour utiliser abusivement ou déloyalement les asymétries d’information, ainsi qu’aux nouveaux modèles d’affaires émergeant autour de la récolte, l’analyse et le partage des données.

Enfin, outre l’évitement des pièges que pose le critère de la taille, cette approche satisfait deux considérations importantes des autorités canadiennes. D’abord, les règles actuelles permettent la mise en oeuvre d’une telle mesure sans attendre la deuxième phase de la réforme sur la concurrence. Deuxièmement, elle cadre bien avec le mandat central du Bureau de la concurrence (promouvoir la concurrence au Canada). Le Bureau de la concurrence ne sera que renforcé par un cadre se concentrant sur la distorsion des marchés plutôt que la taille des plateformes, car il pourra concentrer ses ressources limitées à des enquêtes concernant ce qui se passe au Canada et aux consommateur·trice·s canadien·ne·s, permettant un examen approfondi des distorsions causées par les entreprises canadiennes qui pourraient autrement passer sous le radar en raison de leur plus petite taille.  Une règlementation ciblée permet également au Canada de contribuer aux efforts internationaux de gouvernance des plateformes à l’intérieur des bornes de ses capacités institutionnelles et de son statut géopolitique de puissance intermédiaire dépendante du commerce.

Don’t Fear the Splinternet: Policy Interoperability and Lessons from the Banking Sector

N’ayez pas peur du splinternet : interopérabilité des politiques et leçons tirées du secteur bancaire

by Blayne Haggart

La version française est suivi.

Scroll down for the French translation.

In platform governance debates, few words carry as much weight as the word “global.”

It’s in the background of fears that domestic regulation of social media platforms will “break the internet,” even as an increasing number of countries move to bring such (typically American or Chinese) companies under domestic law. In Canada, for example, critics have argued that the very act of brining global platforms under the Canadian broadcasting regime is folly or illegitimate, akin to the actions of actually authoritarian regimes, such as China’s isolationist “Great Firewall” or Russia’s RuNet.

In reality, the issues at play are the usual contests between competing norms, and over the appropriate level of regulation of businesses. Implicit in the word “global,” as used by critics of platform regulation, are specific ideological and normative commitments favouring a particular type of regulation, while appeals to their inherent and desirable globalness are deployed to argue against state regulation of platforms.

In the case of online platforms, the “global internet” involves not just the internet’s backbone and fundamental protocols, but globe-spanning companies (usually based in the US or China) and a relatively undifferentiated regulatory space. From such a perspective, existing state regulation, such as Germany’s NetzDG legislation, tends to be perceived, even by supporters of regulation as an unnatural interruption of these companies’ naturally global state, an anomaly to be justified, even by its proponents, rather than a way to bring an unregulated industry under democratic control.  As a result, it is that much more difficult for policymakers to regulate in the public interest. As I discuss below, however, fears of creeping authoritarianism are overblown, and there is nothing unnatural or against the nature of the internet that should keep policymakers from engaging in sound platform regulation in the public interest. Done well, it can even improve quality of the global internet itself.

 Fear of the “splinternet”

In the background of the suspicion of platform regulation is a worry that the global internet is transforming itself into the “splinternet”: the fracturing of the internet along national or regional borders. Splinternet concerns go far beyond worries that countries may physically cut themselves off from the global network of the internet. Writing in the Duke Law Journal, legal scholar Mark A. Lemley nicely captures the ideological stakes of the splinternet as they relate to platforms. For Lemley, the splinternet is caused in part by national regulation.  His fear is that, for example, European regulation “will end up either moving European consumers to separate European internet companies and internet technologies or, perhaps, co-opting US companies in ways that will still end up dividing the US experience from the European experience.”

A single experience implies a single set of norms. Internet scholar Niels ten Oever identifies maximizing interconnection and interoperation as the fundamental internet norms: the more people and networks that are connected to each other, the better. When people talk about “internet freedom,” this is what they mean.

An unusual form of globalization

This view might seem natural and unobjectionable, but embedded in it is a perspective that downplays all other possible policy objectives. It also naturalizes a very narrow and unusual view of how a global regime should operate.

The global dominance of a few companies in a regulatory regime that presumes there should be one set of norms and rules for all countries is an example of what economist Dani Rodrik (adapted by me for the internet governance space) calls “hyperglobalization.” This is a form of globalization characterized by a single dominant set of rules, or rule-setters (the platforms) in a world of nation-states, in which democratic-rule by these states is seen as impossible or undesirable.

In terms of values, ten Oever notes that attempts to address human rights or other concerns requires restrictions on the system’s interconnection and interoperability. However, because interconnection and interoperability are taken as synonymous with internet freedom, any violation is seen as an attack on the internet itself, leading to the “splinternet.” Thus, debates over domestic regulation, say to prevent hate speech to ensure that more voices are heard, or to promote cultural expression, degenerate into accusations that proponents of regulation are advocates for creeping authoritarianism or totalitarianism.

Don’t fear the splinternet: A view from the banking sector

Democratic communities have legitimate disagreements and preferences about nearly every issue. From this perspective, it is the desire to implement a single set of norms on everyone, everywhere that emerges as a problem. Fortunately, when we look beyond the internet sector, it becomes clear that domestic regulatory regimes need not impede global interactions. It can even improve those interactions and our quality of life.

Consider the banking sector, and the financial industry generally. It’s hard to think of a more paradigmatic global industry. As with the large platforms, a few geographic centres dominate, and there are several globe-spanning corporations. This same industry is also characterized by varying levels of domestic regulation and protectionism of local actors.

As Rodrik and others have remarked, different levels of regulation internationally reflect fundamental views about the relative desirability of various policy objectives. The relatively lax approach to financial regulation in the United States reflects a different attitude toward the risk-innovation trade-off that we see in Canada, whose regulatory regime favours large, incumbent charter and sacrifices innovation for stability.

Neither system is objectively “right” or “wrong”: each reflect particular values, preferences, and the interests of the dominant actors in each system. Beyond the inherent democratic virtue of a country’s regulatory regimes reflecting the desires and needs of its citizenry, a globally heterogeneous regulatory landscape can minimize contagion when a sector goes off the rails.

As economists Michael D. Bordo, Andgela Redish and Hugh Rockoff  remind us, Canada’s conservative banking system, for example, allowed the country to withstand the 2008 Global Financial Crisis, which originated in the United States thanks to its lax regulatory regime. Similarly, though it is early days yet, Canada looks well positioned to weather the current banking crisis emerging from the March 10, 2023, failure of Silicon Valley Bank, which was also rooted in part permissive US regulations.

Redefining globalization, embracing domestic regulation

This very brief consideration of the banking sector should remind us that most policy spaces are multi-dimensional and require balancing competing objectives. It should also remind us that different democratic governments and societies will have different policy preferences, and that such differences can easily be accommodated within a “global” system. From this perspective, policy heterogeneity should be be celebrated, not feared.

Imagine if Silicon Valley Bank were the world’s startup banker, and US banking regulations the template for the world. The crisis would have been far worse. Yet, in platform regulation, we have single companies, some headed by very erratic leaders, who can cause chaos, and worse, for billions, with the locals having relatively little say in their operation. And domestic regulation is often presumed to be, at best, a necessary evil.

Embracing global policy heterogeneity as a feature, not a bug, points toward a way forward, one that looks – as Rodrik suggests regarding economic globalization – for minimal acceptable terms of engagement among like-minded countries while respecting domestic policy differences. The goal for global internet governance should not be a single set of freedom-maximizing rules, but an interoperable patchwork of policy regimes, and international institutions, that reflect the different preferences, and democratic rights, of their citizens.

Moving beyond the use of “global” as a shorthand for a specific set of interests and ideologies won’t, on its own, eliminate platform-governance disagreements. But it will, at the very least, allow Canadians and Canadian policy-makers to have a more-direct and honest conversation about the legitimate values at stake in these debates.


la version française

N’ayez pas peur du splinternet : interopérabilité des politiques et leçons tirées du secteur bancaire

Dans les débats relatifs à la gouvernance des plateformes, peu de mots ont une aussi grande portée que le mot « mondial ».

L’optique de soumettre les plateformes de réseaux sociaux à des réglementations nationales pourrait entraîner une « fragmentation d’Internet », ce qui fait l’objet de nombreuses appréhensions, dans un contexte où de plus en plus de pays tentent de ramener ce type d’entreprises (souvent étasuniennes ou chinoises) dans le giron de la législation nationale. Au Canada, par exemple, les personnes défavorables à ces réglementations soutiennent que le simple fait de soumettre de telles plateformes internationales aux réglementations canadiennes sur les émissions serait absurde ou illégitime, voire s’apparenterait aux mesures des régimes autoritaires telles que le « Grand Pare-feu » isolationniste chinois ou le RuNet russe.

En réalité, ces enjeux portent non seulement sur les désaccords habituels entre les normes contradictoires existantes, mais aussi sur le niveau de réglementation adéquat qu’il convient d’appliquer aux entreprises. Le mot « mondial », tel qu’il est employé par les personnes défavorables à la réglementation des plateformes, sous-entend des engagements idéologiques et normatifs qui encourageraient une forme de réglementation spécifique d’Internet. Or, le caractère mondial inhérent et souhaitable de ces plateformes sert d’argument contre l’application de réglementations nationales.

Pour ce qui est des plateformes en ligne, l’« Internet mondial » au sens large inclut non seulement les protocoles phares et fondamentaux d’Internet, mais aussi des entreprises internationales (généralement basées aux États-Unis ou en Chine) et un environnement dans lequel s’appliquent peu voire pas de réglementations. À cet égard, des réglementations nationales existantes telles que la législation allemande NetzDG ont tendance à être perçues comme des éléments perturbateurs qui viennent entraver le caractère naturellement mondial de ces entreprises, et ce même par des personnes en faveur de l’instauration de réglementations. Certaines personnes, y compris des partisan·e·s de ces réglementations, les considèrent néanmoins comme des anomalies à rectifier plutôt que comme des moyens de ramener un secteur non réglementé sous contrôle démocratique.  C’est pourquoi il est d’autant plus difficile pour les décideur·euse·s politiques de s’accorder sur des réglementations qui soient d’intérêt public. Toutefois, comme je l’évoque ci-après, les craintes liées à l’instauration d’une forme insidieuse d’autoritarisme sont démesurées. Par ailleurs, rien dans la nature de l’Internet en lui-même ne saurait empêcher les décideur·euse·s de mettre en place une réglementation raisonnable des plateformes si cette réglementation se fait dans l’intérêt public. Si elles sont instaurées et utilisées à bon escient, elles pourraient même aller jusqu’à améliorer la qualité de l’Internet mondial.

La peur du « splinternet »

Derrière la suspicion qui entoure la possible réglementation des plateformes se cache la crainte que l’Internet mondial se transforme peu à peu en « splinternet », c’est-à-dire qu’il soit fragmenté en fonction des frontières nationales ou régionales. Les appréhensions relatives au splinternet vont bien au-delà des inquiétudes liées au fait que des pays puissent se couper physiquement du réseau mondial qu’est l’Internet. Dans son article publié dans le Duke Law Journal, le juriste Mark A. Lemley expose brillamment les enjeux du splinternet du point de vue des plateformes. D’après Lemley, l’émergence du splinternet proviendrait partiellement des réglementations nationales.  Si l’on en croit ses appréhensions, les réglementations européennes « pourraient finir par déplacer les consommateur·rice·s européen·ne·s de manière à séparer les entreprises européennes et les technologies basées en ligne. Elles pourraient aussi finir par coopter les entreprises étasuniennes de différentes manières, qui aboutiront à une séparation entre l’expérience étasunienne et l’expérience européenne. »

Une expérience uniformisée suppose un ensemble de normes uniformes. Niels ten Oever, expert spécialisé dans le domaine d’Internet, considère que la maximisation des interconnexions et des interopérations devrait former la base des réglementations d’Internet : plus les personnes et les réseaux sont connectés entre eux, mieux c’est. Telle est la définition de ce que l’on appelle la « liberté sur Internet ».

Une forme inhabituelle de mondialisation

Ce point de vue pourrait sembler naturel et acceptable, mais il cache un angle d’approche qui minimise toute autre forme de politique envisageable. Il normalise également une opinion très inhabituelle et restrictive illustrant la façon dont un régime mondial devrait être géré.

La dominance à l’échelle planétaire d’une poignée d’entreprises qui évoluent au sein d’un cadre réglementaire fondé sur le principe selon lequel il ne devrait y avoir qu’un seul ensemble de lois et de réglementations identiques pour tous les pays constitue un exemple de ce que l’économiste Dani Rodrik appelle « hypermondialisation » (que je prends soin d’adapter afin d’aborder la gouvernance d’Internet). Il est ici question d’une forme de mondialisation caractérisée par un ensemble uniformisé de réglementations, ou de responsables de la réglementation (soit les plateformes), dans un univers d’États-nations dans lesquels la domination démocratique par ces États serait impossible ou non désirée.

En termes de valeurs, ten Oever ajoute qu’il n’est pas possible de résoudre les problèmes relatifs aux droits de la personne ou à d’autres sujets semblables sans instaurer des restrictions sur l’interconnexion et l’interopérabilité du système. Néanmoins, puisque l’interconnexion et l’interopérabilité sont au cœur de la liberté sur Internet, toute violation est considérée comme étant une attaque visant l’Internet lui-même et susceptible de donner lieu au « splinternet ». De ce fait, les débats concernant les réglementations nationales qui souhaitent interdire les discours haineux afin d’assurer que plus de voix puissent être entendues ou qui souhaitent mettre en avant l’expression culturelle dérivent en accusations dénonçant les défenseur·euse·s de ces réglementations comme étant des partisan·e·s d’une forme insidieuse d’autoritarisme ou de totalitarisme.

N’ayez pas peur du splinternet : l’exemple du secteur bancaire

Les communautés démocratiques ont des désaccords et des préférences légitimes sur presque tous les enjeux imaginables. De ce fait, l’optique consistant à mettre en vigueur un ensemble uniformisé de réglementations pour toutes les personnes dans le monde entier devient problématique. Fort heureusement, si l’on regarde au-delà d’Internet, il devient évident que les cadres de réglementation nationaux ne compromettent pas nécessairement les interactions mondiales. Ils pourraient même améliorer ces interactions et notre qualité de vie.

Prenons par exemple le secteur bancaire et le secteur de la finance dans son ensemble. Il est difficile de penser à un secteur qui soit plus mondialisé et plus paradigmatique que celui-ci. Pour ce qui est des grandes plateformes, quelques centres géographiques dominent et il existe plusieurs sociétés par actions internationales. Ce secteur est également caractérisé par ses nombreuses strates de réglementations et de protectionnisme envers les acteurs locaux.

Comme l’ont évoqué Rodrik et ses pairs, l’instauration de différentes strates de réglementations à l’échelle internationale reflète des points de vue fondamentaux concernant la désirabilité relative des différents objectifs politiques. Le comportement plus ou moins laxiste des États-Unis vis-à-vis des réglementations financières reflète une approche différente du rapport risque-innovation que l’on peut voir au Canada, dont le régime favorise les chartes plus larges qui sont déjà en vigueur et sacrifie l’innovation en faveur de la stabilité.

Aucun de ces systèmes n’est objectivement « bon » ou « mauvais » puisque tous deux reflètent des valeurs et des préférences spécifiques, ainsi que les intérêts des acteurs principaux au sein de chaque système. Au-delà de la vertu démocratique inhérente au cadre réglementaire d’un pays, qui reflète les désirs et besoins de ses citoyen·ne·s, la présence d’un cadre réglementaire hétérogène mondialisé pourrait réduire autant que possible toute contagion si l’un des secteurs venait à faire faillite.

Comme nous le rappellent les économistes Michael D. Bordo, Andgela Redish et Hugh Rockoff, le système bancaire conservateur canadien a notamment permis au pays de surmonter la crise financière mondiale de 2008 qui provenait originellement du cadre réglementaire laxiste étasunien. De la même façon, bien que nous n’en soyons encore qu’aux débuts, le Canada semble bien préparé face à la crise bancaire actuelle provenant de la faillite de la Silicon Valley Bank, en date du 10 mars 2023, une faillitequ’on doit aussi en partie aux réglementations laxistes étasuniennes.

Redéfinir la mondialisation, accepter les réglementations nationales

Cette brève parenthèse sur le secteur bancaire devrait nous rappeler que la plupart des cadres réglementaires sont multidimensionnels et exigent d’atteindre un certain équilibre entre des objectifs contradictoires. Cette parenthèse devrait également servir de rappel soulignant que les gouvernements et les sociétés démocratiques ont chacun et chacune leurs préférences en matière de réglementation et que de telles préférences peuvent aisément être conciliées au sein d’un système « mondial ». Si l’on considère ce point de vue, l’hétérogénéité devrait être célébrée, et non crainte.

Imaginez si la Silicon Valley Bank avait été la banque des entreprises en démarrage du monde entier et les réglementations étasuniennes le modèle international. Cette crise aurait été bien plus grave. Pourtant, en matière de réglementation des plateformes, il existe des entreprises seules, dont certaines sont gérées par des dirigeant·e·s imprévisibles, qui pourraient entraîner des situations chaotiques, voire pire, pour des milliards de personnes locales qui n’ont pas leur mot à dire. C’est pourquoi la mise en place de réglementations nationales est souvent perçue comme étant un mal nécessaire.

En considérant cette hétérogénéité mondiale comme étant une fonctionnalité avantageuse et non comme un bogue, il est possible de concevoir un avenir qui, comme l’évoque Rodrick en parlant de la mondialisation économique, permet d’envisager des ententes réglementaires auprès de pays qui partagent une même vision tout en respectant les différentes politiques nationales. L’objectif d’une gouvernance de l’Internet mondial ne devrait pas consister en un seul ensemble de règles visant à mettre en avant le plus de libertés possible, mais en une mosaïque interopérable de cadres réglementaires et d’institutions internationales qui refléteraient les différentes préférences et les droits démocratiques de leurs citoyen·ne·s respectif·ve·s.

Concrètement, passer outre le fait que l’utilisation du mot « mondial » puisse faire référence à des intérêts et des idéologies spécifiques n’éliminera pas en soi les désaccords sur la gouvernance des plateformes. Néanmoins, cela permettrait aux décideur·euse·s politiques canadien·ne·s et à leurs citoyen·ne·s d’avoir une discussion plus directe et franche sur les valeurs légitimes qui se trouvent au cœur de ces débats

ChatGPT’s Infrastructural Ambitions: AI, Commodification, and the Commons

Les grandes ambitions de ChatGPT : l’IA, la marchandisation et les biens communs

by Fenwick McKelvey and Robert Hunt

La version française est suivi.

Scroll down for the French translation.

 

OpenAI’s ChatGPT, the hybrid private company–nonprofit’s latest project, arrives just as the Government of Canada attempts to pass its own response to AI, the Artificial Intelligence and Data Act (AIDA). Amidst ongoing debates over ChatGPT and its growing connections to major platforms, we urge greater consideration of the information commons as a key policy frame to understand AI chatbots and the large-language models used to train them. ChatGPT could not exist without the collective production of resources to support and maintain these commons. Its exploitation of those commons will only continue as OpenAI and its competitors try to monetize chatbots.

Commons-based approaches respond to demands for stronger collective rights in the AIDA Bill. Currently, AIDA focuses largely on economic or psychological harm to individuals with only a gesture towards larger systemic issues. Critics of the bill have questioned this narrow focus on harms in contrast with the Office of the Privacy Commissioner’s recommendations for a rights-based approach.

We take ChatGPT’s recent rollout of third-party plug-ins as an occasion to elaborate how Canadian AI policy can be informed by theories of the information commons and to call attention to AI’s persistent reliance on precarious and low-wage platform work. As lawmakers develop policy to regulate AI, they should consider how AI firms have already taken advantage of existing commons and how they often resort to precarious labour to tackle key policy concerns like content moderation. The connection between these two issues is on clear display in ChatGPT’s recent launch of plug-ins.

ChatGPT’s infrastructural ambitions on display

On 23 March 2023, OpenAI announced the arrival of plug-ins for ChatGPT that connected the experimental AI live to the internet. These plug-ins allow the bot to “access up-to-date information, run computations, or use third-party services.” OpenAI president and cofounder Greg Brockman illustrated the new products’ utility by tweeting a video demonstrating how ChatGPT could find a recipe online, calculate the dish’s calorie count, and order the ingredients from Instacart. The demo shows how ChatGPT’s conversational interface could be used to do more than generate text. It also reveals that its developers aspire to make the technology infrastructural. The plug-ins make clear that ChatGPT’s owners want it to become a—possibly the—key platform for accessing the internet and accomplishing everyday tasks, including those that depend on precarious human labour.

Beyond showcasing the chatbot’s new abilities and aspirations, the video also demonstrates the hidden, infrastructural work behind ChatGPT—indeed, most modern AI—from the data used to train the model to the labour required to pick items off grocery shelves. The chatbot’s capacity to deliver impressively human-like responses to users’ queries relies on a group of large language models (LLMs), which are trained on massive datasets of text to “learn” to predict natural sequences of words. These datasets were built in a variety of ways, including scraping public websites (e.g., Wikipedia), digitized books, and social media networks.

In other words, millions of internet users’ content was converted into data that trained the models that became the infrastructure for ChatGPT and similar applications. All this relatively indiscriminate data harvesting normally requires human judgment and labour to filter out racist, abusive, or otherwise offensive text, relying on a global system of ghost work. But cleaning such a massive dataset before training would be tremendously difficult, so OpenAI hired low-paid workers in Kenya to annotate problematic text that could be used to train ChatGPT what not to say.

ChatGPT’s back story has taken on particular significance as the chatbot, initially launched as a free tool, enters a new phase of commodification. With billions of dollars invested in generative AI, new revenue streams will inevitably be pursued in the future. OpenAI’s strategy to develop and maintain an app store might seem novel at first, but it has become foundational to most modern platform firms’ business models. For $20 (USD) per month, subscribers can access ChatGPT Plus; similar or rival chatbots are being incorporated into other subscription-based software products, such as Microsoft’s 365 family of applications (which could themselves be understood as infrastructural to much contemporary labour).

This coming wave of products and services raises pressing questions about LLM-based chatbots and their implications for aspects of internet governance, such as copyright, freedom of expression, and data privacy. From our view, these new products shine a bright light on drawbacks to the openness of information commons like internet content. Though nascent in its functionality, ChatGPT exemplifies how some AI applications trouble established understandings of online commons, prompting fundamental questions about what these commons are, who should have access to them, and how they can be maintained and governed. That billions of individual acts of creation were treated like a collective pool of non-proprietary data to manufacture subscription-based products shows how well-intentioned efforts to build and maintain commons can be preyed upon by corporations who see them not as communal resources but as vast pools of free labour.

These attempts to become critical infrastructure have been a persistent concern in media and information policy, prompting greater interest in policy approaches informed by the commons.

How does ChatGPT trouble the commons?

ChatGPT and other LLM-based chatbots simultaneously require and undermine theories of the political economy of communication. Building on the work of Vincent Mosco, we see two strategies at work:

  1. Extrinsic commodification, where firms harvest and operationalize historical common data resources under aggressive interpretations of copyright law;

  2. Intrinsic commodification, where firms mine and revalue data collected in their everyday operations.

Like past theories of enclosure and commodification, these efforts undermine the reproduction of information commons, turning public resources into private assets.

Generative AI, in most forms, relies on extrinsic commodification, such as the Common Crawl dataset being used to train OpenAI’s models. The nonprofit 501(c)(3) organization relies on a broad interpretation of fair dealing and fair use to collect images and text published on the web in its entirety. Ostensibly, Common Crawl is a product of a commons-based production model. At its launch in 2011, Lisa Green, director of the organization, announced: “it is crucial [in] our information-based society that Web crawl data be open and accessible to anyone who desires to utilize it.” Though loosely premised on openness, by allowing powerful corporations to fulfill their desires, Common Crawl functions more as an engine of processes of commodification that encodes public resources into proprietary AI models.

Platforms—especially platforms that rely on data to optimize their operations, or those that Nick Srnicek refers to as “lean” platforms—have increasingly reconsidered their transactional or business data as sources of training data. The result is a form of intrinsic commodification that seeks to extract value out of ongoing company activities. This form of commodification applies to a number of platforms, from Meta and Google using their free services as sources of information models to Microsoft reconfiguring its Office Suite as a source of training data for its partner OpenAI. These developments are a critical matter for Canadian communication policy as well.

Artificial intelligence raises deeper questions about the information commons. Most directly, large AI firms’ seamless commodification of public data calls into question whether adhering to a principle of openness successfully maintains information commons. Commons-based projects like Creative Commons content licenses or the General Public License for software are grounded in values of sharing, citing, and collective benefit. Treating these efforts as merely facilitating reservoirs of free data for powerful corporations negates their relational and reciprocal nature.

Artificial intelligence, then, might require reconsidering the commons as a relational norm premised on care and maintenance rather than unrestricted use. However, the uncopyrightable nature of current AI-produced works raises a secondary issue: the potential pollution of the commons by AI-generated works. Identifying AI-generated text is already a concern for OpenAI’s owners, who are worried that training new models on the output of past models might cause chaos in the system. As generative AI trains on its own creations, meaningful signals become lost in the deluge of automated content production—how might human users suffer if the global information commons of the internet is swamped with machine-made and possibly plagiarized, misleading, inaccurate, or defamatory content? We ask policy makers to take seriously the exploitation of our collectively built information commons and to take care of the networked labours that enable it.


la version française

Les grandes ambitions de ChatGPT : l’IA, la marchandisation et les biens communs

ChatGPTest le tout dernier projet d’OpenAI, une entité hybride se situant entre l’entreprise privée et l’organisme à but non lucratif. Le robot conversationnel arrive sur le marché alors que le gouvernement canadien tente de faire adopter sa propre réponse aux IA, la Loi sur l’intelligence artificielle et les données (LIAD). Alors que les débats actuels concernant ChatGPT et ses connexions croissantes aux plateformes majeures font rage, nous encourageons vivement la considération des biens communs informationnels comme étant des cadres de référence politiques qui permettraient de mieux comprendre les agents conversationnels intelligents et les grands modèles linguistiques qui servent à les entraîner. ChatGPT n’existerait pas sans la production collective de ressources qui permettent de soutenir et de maintenir ces biens communs. Comme OpenAI et ses compétiteurs tentent de monétiser leurs agents conversationnels intelligents, l’exploitation des biens communs informationnels ne fera que s’intensifier.

Les approches basées sur les biens communs répondent aux demandes de droits collectifs plus stricts dans le projet de loi LIAD. À ce jour, le LIAD se concentre principalement sur les préjudices économiques et psychologiques subis par les individus et accorde peu d’attention aux problématiques systémiques plus larges. Les opposants au projet de loi restent dubitatifs face à cette attention centrée sur les préjudices, contrairement aux recommandations du Commissariat à la protection de la vie privée du Canada, qui propose une approche fondée sur les droits.

À l’occasion du déploiement récent de modules d’extension tiers de ChatGPT, nous détaillerons la façon dont les politiques canadiennes sur l’IA peuvent être alimentées par des théories sur les biens communs informationnels et mettrons en lumière le fait que les plateformes de l’IA dépendent continuellement d’une de travailleurs sur les plateformes précaires et sous-payés. Dans l’élaboration de réglementation sur les IA, les législateurs devraient prendre en compte le fait que les entreprises d’IA tirent déjà profit des biens communs existants et qu’elles ont souvent recours à l’exploitation d’une main-d’œuvre en situation précaire afin de répondre aux préoccupations liées à des politiques essentielles, telles que la modération de contenu. Les liens entre ces deux problématiques n’en sont devenus que plus limpides depuis le lancement récent des modules d’extension de ChatGPT.

ChatGPT affiche son objectif de devenir un élément d’infrastructure Web essentiel

Le 23 mars 2023, OpenAI a annoncé l’arrivée de modules d’extension pour ChatGPT qui permettent de connecter en direct l’IA expérimentale à l’Internet. Ces modules d’extensions permettent au robot d’avoir « accès à des informations actualisées, d’effectuer des calculs ou d’utiliser des services de tierces parties. » Greg Brockman, le directeur et cofondateur d’OpenAI, a partagé la nouvelle fonctionnalité du produit en publiant sur Twitter une vidéo montrant comment ChatGPT peut trouver une recette en ligne, calculer le nombre de calories du plat et commander les ingrédients via l’application de livraison Instacart. Cette vidéo prouve que l’interface conversationnelle de ChatGPT peut faire bien plus que générer du texte. Elle dévoile également que ses développeurs souhaitent que leur technologie devienne une infrastructure Web. Les modules d’extension sont la preuve que les propriétaires de ChatGPT souhaitent que cette IA devienne une plateforme clé (si ce n’est la plateforme clé) permettant d’accéder à Internet et d’effectuer des tâches du quotidien, dont celles qui dépendent d’une main-d’œuvre humaine précaire.

Au-delà de la présentation des nouvelles fonctionnalités et des ambitions de l’agent conversationnel intelligent, la vidéo montre également le travail interne et relatif à l’infrastructure qui se cache derrière ChatGPT (et la plupart des IA modernes), depuis les données utilisées afin d’entraîner le modèle, jusqu’au travail requis afin de sélectionner des produits sur des tablettes d’épiceries. L’aptitude de l’agent conversationnel intelligent à répondre aux questions des utilisateurs de manière incroyablement humaine repose sur un groupe de grands modèles linguistiques (abrégé LLM de l’anglais large language model) qui sont entraînés grâce à d’énormes jeux de données constitués de textes dans l’objectif d’« apprendre » à anticiper les séquences naturelles de mots. Ces jeux de données ont été construits de diverses manières, notamment grâce à l’assimilation de sites Web publics (tels que Wikipédia), de livres numériques ou encore des plateformes de réseaux sociaux.

Autrement dit, le contenu appartenant à des millions d’utilisateurs sur Internet a été converti en données qui ont permis d’entraîner les modèles. Celles-ci forment désormais l’infrastructure de ChatGPT et d’autres applications semblables. Cette exploitation assez arbitraire des données requiert normalement un jugement et un travail humain afin de filtrer tout texte à caractère raciste, abusif ou choquant et repose sur un système mondial de travailleurs fantômes. Or, le nettoyage d’un jeu de données aussi monumental peut s’avérer extrêmement fastidieux. C’est pourquoi OpenAI a recruté des travailleurs faiblement rémunérés au Kenya afin d’annoter des textes problématiques qui pourraient être exploités afin d’entraîner ChatGPT à ne pas les utiliser dans ses réponses.

Au moment où ChatGPT, initialement lancé en tant qu’outil libre et gratuit, entre dans une nouvelle ère de marchandisation, le cadre dans lequel il a été conçu prend une signification particulière. Du fait des milliards de dollars investis dans l’IA générative, de nouvelles sources de revenus deviendront nécessaires. La stratégie d’OpenAI visant à développer et maintenir une boutique d’applications pourrait sembler novatrice au premier abord, mais elle est devenue fondamentale pour la plupart des modèles opérationnels des entreprises de plateformes modernes. En effet, en souscrivant à un abonnement mensuel de 20 $ US, les abonnés ont accès à ChatGPT Plus; des agents conversationnels intelligents semblables ou concurrents sont en train d’être incorporés dans d’autres produits logiciels qui requièrent un abonnement, tels que la famille d’applications de Microsoft 365 (qui pourrait elle-même être considérée comme partie intégrante de l’infrastructure de nombreuses formes de travail contemporaines).

La vague imminente de produits et de services fait émerger d’importantes questions liées aux agents conversationnels intelligents basés sur les LLM et au rôle qu’ils jouent dans certains aspects de la gouvernance du Web, telles que les droits d’auteur, la liberté d’expression et la confidentialité des données. De notre point de vue, ces nouveaux produits mettent très clairement en lumière les revers de l’accessibilité des biens communs informationnels, tels que le contenu que l’on retrouve sur Internet. Bien que ses fonctionnalités n’en soient qu’à leurs prémices, ChatGPT met en évidence les manières dont certaines utilisations des IA viennent perturber la compréhension établie des biens communs sur Internet. Ceci soulève des questions sur la nature de ces biens communs, sur les droits d’accès à ceux-ci et sur les façons dont ils peuvent être maintenus et réglementés. Des milliards de sources de contenu créatif individuelles ont été considérées comme un bassin collectif de données libres de droits qui ont permis la fabrication de produits basés sur un système d’abonnements. Cette situation révèle à quel point des efforts bien intentionnés visant à construire et à maintenir les biens communs peuvent malheureusement devenir la cible de sociétés commerciales qui les considèrent non pas comme des ressources communes, mais comme une vaste réserve de main-d’œuvre gratuite.

Ces tentatives des sociétés qui cherchent à devenir une infrastructure essentielle ont fait l’objet d’appréhensions constantes liées aux politiques sur les médias et l’information, ce qui suscite un plus grand intérêt pour des approches politiques basées sur les biens communs.

De quelles façons ChatGPT met-il en danger les biens communs?

ChatGPT et d’autres agents conversationnels intelligents basés sur les LLM exigent à la fois des théories sur l’économie politique de la communication et une subversion de leurs principes.. Si l’on se base sur les travaux de Vincent Mosco, il est possible de distinguer deux stratégies mises en œuvre :

  1. Une marchandisation extrinsèque, où les entreprises récoltent et rendent opérationnelles des ressources de données communes historiques par le biais d’interprétations agressives des lois sur les droits d’auteur;

  2. Une marchandisation intrinsèque, où les entreprises minent et revalorisent les données collectées au cours de leurs opérations quotidiennes.

Au même titre que les théories de renfermement et de marchandisation, ces méthodes banalisent la reproduction des biens communs de l’information et transforment ces ressources publiques en biens privés.

La plupart des formes d’IA génératives reposent sur des marchandisations extrinsèques semblables au jeu de données libres d’accès de Common Crawl dont OpenAI se sert afin d’entraîner ses modèles. Cette organisation à but non lucratif 501 (c) (3) dépend d’une interprétation vague de l’utilisation équitable afin de rassembler des images et du texte publié sur le Web tout entier. Vraisemblablement, le Common Crawl découle d’un modèle de production basé sur les biens communs. Lorsque Common Crawl a été lancée en 2011, la directrice de l’organisation, Lisa Green, a évoqué qu’il était  « essentiel, compte tenu de la société de l’information dans laquelle nous vivons, d’ouvrir et de faciliter l’accès aux données disponibles sur les robots d’indexation à tout individu qui souhaiterait les utiliser. » Bien qu’elles s’appuient vaguement sur le principe d’accessibilité pour toutes et tous, les fonctionnalités proposées par Common Crawl permettent de répondre aux désirs des entreprises puisqu’elles servent principalement de moteur de marchandisation qui encode les ressources publiques pour en faire des modèles d’IA exclusifs.

Les plateformes, en particulier celles qui dépendent de données afin d’optimiser leurs opérations, ou encore celles que Nick Srnicek appelle les « plateformes allégées », considèrent de plus en plus leurs données transactionnelles ou commerciales comme une source de données d’entraînement. De ce glissement découle une marchandisation intrinsèque ayant pour but de rentabiliser les données extraites des activités continuelles des entreprises. Cette forme de marchandisation est exploitée par de nombreuses plateformes, de Meta à Google, qui utilisent les données issues de leurs services libres et gratuits comme modèles d’information, en passant par Microsoft, qui a transformé sa suite Office en une source de données d’entraînement pour son partenaire OpenAI. Ces changements constituent une autre question essentielle que les politiques de communication canadiennes doivent prendre en compte.

L’intelligence artificielle soulève des questions profondes sur les biens communs informationnels. Plus concrètement, le fait que les grandes entreprises d’IA puissent facilement marchandiser les données publiques soulève une énième question : l’adhésion à un principe d’accessibilité des informations pourrait-elle mener à la protection des biens communs informationnels? Des projets basés sur les biens communs tels que les licences de contenu de Creative Commons ou la Licence publique générale pour les logiciels reposent sur des valeurs de partage, de citation et de bénéfices collectifs. En se servant de ces outils comme d’un réservoir de données libres, gratuites et faciles d’accès, ces puissantes entreprises annulent la nature relationnelle et réciproque de ces biens.

Les concepteur·rice·s d’intelligences artificielles devront donc revoir leurs rapports aux biens communs afin d’établir une relation basée sur la bienveillance et la conservation plutôt que sur l’exploitation illimitée de données. Néanmoins, le fait que les travaux actuellement générés par les intelligences artificielles ne puissent pas être protégés par des droits d’auteur soulève une problématique de second plan : la pollution potentielle des biens communs informationnels par des travaux générés artificiellement. L’identification des textes générés par des intelligences artificielles préoccupe déjà les propriétaires d’OpenAI, qui s’interrogent sur le niveau de chaos qui pourrait être généré s’ils venaient à entraîner leurs nouveaux modèles d’IA sur des sorties produites par d’anciens modèles. Puisque les IA génératives s’entraînent sur leurs propres créations, les informations de valeur se perdent dans le déluge de la production automatisée de contenu. Il est possible de se demander à quel point les utilisateurs humains pourraient souffrir si les biens communs informationnels disponibles sur Internet se retrouvaient ensevelis sous du contenu généré par des machines, possiblement plagié, fallacieux, inexact ou diffamatoire. Nous demandons donc aux responsables de l’élaboration des politiques de prendre au sérieux l’exploitation de nos biens communs informationnels et de prendre en compte les réseaux de main d’œuvre qui rendent l’alimentation de ces biens communs possibles.

Carbon Tracking Platforms and the Problem of Net-Zero

Les plateformes de suivi de l’empreinte carbone et le problème du zéro émission nette

by Sonja Solomun

La version française est suivi.

Scroll down for the French translation.

 

In recent years, platform companies including Google, Amazon, and Meta have announced grand net-zero carbon pledges and a range of commitments to “technological sustainability.” In 2019, Amazon’s then CEO Jeff Bezos announced a USD $10 billion “Earth Fund” to fund climate research and pledged to be net-zero by 2040. Meta committed to becoming net-zero throughout its entire supply chain by 2030, with Google, Microsoft, and Twitter echoing similar promises.

 Despite these sweeping assurances, platform companies continue to adversely impact the environment in several ways. Platform companies routinely profit from climate disinformation and denialism, usually spread by known actors with vested political and/or economic interests. Last year’s Intergovernmental Panel on Climate Change drew attention to the impacts of climate obstruction for the first time, outlining how the problem directly impedes policy and collective action.

This brief considers how platform companies’ recent interventions into climate governance – through changes to their climate change content and advertising policies, data management of “net zero” carbon tracking systems, and the expansion of physical infrastructures that directly impact lived environments – constitute an emerging form of platform governance. It outlines further policy considerations regarding the transparency, accountability, and standardization of platform interventions in carbon management specifically, and “platform sustainability” more broadly in order to bridge the artificial divide between climate policy and platform governance.

Platforms and Climate

Platform infrastructures are themselves built and run on extractive energy and data practices that require vast amounts of natural and rare earth materials. Just last year, Amazon’s carbon emissions increased at the highest ever reported rate. These ecological harms are not universal; rather, they disproportionately affect communities of colour, continuing long legacies of environmental racism, especially in the United States. Yet, platform companies fiercely protect their commercial interests over their stated sustainability goals – earlier this year, Amazon worked to quash a climate bill that would have regulated its data centres by its own stated timeline of 2040.

Despite clear environmental harms and lack of any real transparency and accountability, platform companies continue to “greenwash” their products and services as “sustainable” solutions to the climate crisis. In fact, many are increasingly expanding their market power with a range of products and services to extend their reach into new “climate tech” markets, investing in “green” infrastructure including low-energy facilities and data processing.

Platform companies are also increasingly developing proprietary carbon accounting systems to track their stated net-zero goals. Google, Amazon, and Microsoft are self-regulating their climate impacts through various carbon reporting and tracking systems, such as Microsoft’s Sustainability Dashboard. All told, it seems that climate change has become a digital policy problem.

Net Zero Infrastructures: Climate Platform Governance and the Emergence of Carbon Tracking Platforms

While many experts agree that net-zero is largely inadequate, it remains an ambitious goal fraught with both epistemological and political challenges  – especially around “knowing” when goals are or are not met, and ensuring accountability of actors.

Framed as a predominantly technological problem, a new crop of platforms has emerged to help private companies and other organizations measure, disclose, and ultimately achieve their stated net-zero goals. These companies promise to deliver what environmental social scientist Holly Jean Buck calls “decarbonization-as-a-service.” Among them, Canadian company FigBytes offers a platform for “decarbonization, data management and climate reporting” in order to help “automate and manage your entire sustainability program, for carbon accounting and beyond.”

FigBytes and other carbon tracking platforms like it offer a familiar form of technosolutionism to the climate crisis. But to solve our ecological crisis through exclusively technological means, carbon needs to be made legible to platform power – it needs to be quantified, which always entails a particular set of political choices and social relations. Without meaningful policy in this space, these crucial choices are currently left to private actors with clear vested interests. Like other kinds of technological, media, and human infrastructures, carbon tracking platforms “lie beneath” while companies are “racing ahead of law and policy and performing de facto governance, creating new proprietary infrastructures for knowing and managing our planet.”

Challenges with Carbon Tracking Platforms

While carbon tracking platforms are a nascent but growing domain, researchers, policymakers and communities have raised significant challenges around the politics of carbon markets and exclusively market-based solutions to the climate crisis. Many have belied the ability of carbon offsets to bring about real change, showing how offsets and monitoring reproduce existing power structures and disproportionately impact local and low-income communities. Negative emissions more broadly have often been used to maintain the status quo over working to mitigate the climate crisis. Others have questioned the political and ideological role of carbon tracking platforms in governing a set of industry interventions toward climate change given their vested reliance on continued emissions.

All told, net-zero is a contested terrain. The term is used by different actors for specific purposes, and is at times mobilized in ways that actually delay and obstruct climate policy and action. These aims rely on both disinformation and deliberate tactics as well as ambiguity surrounding “net-zero” and the metrics used to evaluate carbon impacts. For instance, an evaluation of corporate net-zero goals by the New Climate Institute finds that many businesses fall short of the Paris accord, despite claiming to reach net-zero. This is partially due to the ambiguity, lack of transparency, standardization and independent oversight of the systems used to certify various net-zero interventions. There are also concerns about the efficiency, accuracy, and potential “algorithmic flaws” of such data-driven systems, but little analysis exists on how the data and algorithms function.

Policy Considerations

The emergence of platforms like FigBytes raises significant questions about the role of carbon tracking platforms in the governance of broader ecosystems and environments, concentration of market power, and the democratic implications of proprietary systems for managing ecological and public impacts.

Carbon tracking platforms pose a unique set of policy considerations that will need to be further unpacked using a global platform governance agenda. There is a lack of uniformity and standardization to ensure carbon tracking platforms are reliable, transparent, and accountable for potential inaccuracies or harms. These challenges include the varying levels of data quality from platform companies self-reporting on a currently elusive mix of internal metrics.

Relatedly, there is an urgent need for robust verification protocols and independent audits to ensure carbon tracking platforms can actually verify proprietary emissions data. Significant questions remain around the role of public oversight as well as which communities and actors stand to benefit from access to these environmental data and whether local communities are being brought into the design process.

These unresolved challenges around private carbon tracking platforms are reinvigorating broader debates about public versus private roles in platform governance. As Holly Jean Buck inquires: “Shouldn’t the political choices about how to quantify carbon — and, by extension, about what kind of social relations to create in pursuit of net zero — be made democratically, rather than by executives and shareholders?”

These questions are familiar to researchers and practitioners working in the field of platform governance, who are well positioned to question the role of platform carbon tracking in the governance of broader ecosystems and environments, and whether the use of net-zero platform initiatives are furthering ambiguity and delay or if these corporate mechanisms are working toward climate change mitigation.

These challenges should prompt Canadian policymakers to mandate reporting requirements from platform companies, with clear disclosures of their own carbon emissions as well as their net-zero targets, progress and accounting mechanisms used to measure them.

Beyond energy use and fossil fuel extraction, regulators will need a broader view of the entire tech ecosystem, including the ecological implications of AI systems, as well as the extraction of natural resources and human labour needed to operate them. Transparency requirements are an important, albeit partial step – robust accountability mechanisms should be the goal of an eventual regulatory approach that includes independent oversight over companies’ climate metrics, standardization of climate compliance, as well as third-party audits of emissions data and net-zero claims.

Most importantly, the public, Indigenous peoples, youth and affected communities will need to be brought into the design and development of accountability policies related to the climate crisis.


la version française

Les plateformes de suivi de l’empreinte carbone et le problème du zéro émission nette

Ces dernières années, les entreprises plateformes comme Google, Amazon et Meta ont fait des déclarations grandiloquentes sur leur objectif de zéro émission nette et une foule d’autres engagements envers un « développement technologique durable. » En 2019, Jeff Bezos, le PDG d’Amazon, a annoncé la mise en place de l’« Earth Fund », un fonds d’investissement de 10 milliards de dollars US pour financer la recherche climatique. Il s’est également engagé à atteindre zéro émission nette d’ici 2040. Meta, quant à elle, s’est engagée à atteindre d’ici 2030zéro émission nette tout au long de sa chaîne d’approvisionnement, une promesse qui rejoint celles de Google, Microsoft et Twitter.

Malgré leurs audacieuses promesses, les entreprises plateformes continuent d’avoir des répercussions nocives sur l’environnement, et ce de diverses manières. En effet, ces entreprises profitent bien souvent de la désinformation sur les changements climatiques et du climatosceptisme, qui sont généralement propagés par la même poignée d’acteur·rice·s aux intérêts économiques et/ou politiques palpables. L’an dernier, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a pointé du doigt pour la première fois les conséquences des entraves à la lutte climatique, notant que ce problème est un frein direct à l’action collective et politique.

Cet article considérera comment les efforts récents en matière de gouvernance climatique des entreprises plateformes, par leurs politiques sur le contenu et les publicités à propos des changements climatiques, la gestion des données des systèmes de suivi de l’empreinte carbone et l’expansion des infrastructures physiques qui ont des répercussions directes sur les milieux de vie, constituent en soi une itération émergente de la gouvernance des plateformes. Il mettra aussi en évidence les considérations politiques qui doivent être mises de l’avant pour concilier l’écart entre les politiques climatiques et la gouvernance des plateformes, notamment par rapport à la transparence, la responsabilité et la standardisation des interventions des plateformes dans la gestion du carbone, et plus généralement dans le « développement durable des plateformes ».

Climat et plateformes

L’infrastructure sous-jacente aux plateformes fonctionne grâce à de l’énergie extractive et des pratiques en matière de données exigeant d’énormes quantités de terres rares et de matériaux naturels. Ne serait-ce que l’an dernier, à en juger par les déclarations d’émissions d’Amazon, les émissions de carbone de l’entreprise ont augmenté pour atteindre de nouveaux sommets. Les contrecoups écologiques ne sont pas répartis de façon équitable; ils touchent davantage les communautés racisées, un phénomène qui s’inscrit dans la continuité d’un long héritage de racisme environnemental, particulièrement aux États-Unis. Plus encore, les plateformes protègent bec et ongles leurs intérêts commerciaux au profit de leurs prétendus objectifs climatiques. Par exemple, en début d’année, Amazon a poussé en faveur de l’annulation d’un projet de loi climatique qui aurait règlementé ses centres de données d’ici sa propre date butoir de 2040.

Malgré leurs répercussions négatives sur l’environnement et le manque d’une quelconque transparence ou responsabilité réelle, les plateformes n’arrêtent pas « d’écoblanchir » leurs produits et services, les présentant comme des solutions « durables » à la crise climatique. D’ailleurs, beaucoup d’entre elles tentent d’étendre leur emprise sur le marché en perçant sur le marché des technologies climatiques avec une gamme de produits et services, en plus d’investir dans des infrastructures dites « vertes » comme des usines ou des centres de traitement de données à faible consommation énergétique.

Les entreprises plateformes développent de plus en plus de systèmes propriétaires de comptabilisation du carbone pour suivre l’objectif de zéro émission nette qu’elles ont énoncé. Google, Amazon et Microsoft autorégulent leurs répercussions climatiques au travers de divers systèmes de déclaration et de suivi, tels que le tableau de bord de durabilité de Microsoft. Tout bien considéré, il semble que les changements climatiques soient devenus un problème de politique numérique.

Vers des infrastructures zéro émission nette : gouvernance des plateformes climatiques et essor des plateformes de suivi de l’empreinte carbone

Bien que beaucoup d’expert·e·s soient d’accord pour dire que l’objectif de zéro émission nette est généralement inadéquat, cela reste un objectif ambitieux miné de défis épistémologiques et politiques. Comment savoir quand les objectifs sont atteints ou ne le sont pas? Et, ensuite, comment s’assurer que les acteur·rice·s en sont tenu·e·s responsables?

Étant donné qu’on considère souvent le carbone comme un problème avant tout technologique, une nouvelle gamme de plateformes est apparue pour aider les entreprises privées et les autres organisations à quantifier leurs émissions, à les déclarer et, à terme, à réaliser leurs objectifs de zéro émission nette.  Ces entreprises promettent d’offrir ce que la chercheuse en sciences sociales environnementales Holly Jean Buck appelle « la décarbonisation en tant que service ». Parmi ces entreprises se trouve la firme canadienne FigBytes, dont la plateforme permet « la décarbonisation, la gestion des données et la déclaration des émissions » pour aider à « automatiser et gérer votre programme de développement durable au complet, pour comptabilisation du carbone et tout le reste ».

Les plateformes de suivi de l’empreinte carbone telles que FigBytes offrent une sorte de technosolutionnisme à la crise climatique, une approche qui ne nous est pas étrangère. Mais, si nous voulons régler la crise écologique en passant par les avancées technologiques, les émissions de carbone doivent être intelligibles pour les plateformes, et donc, quantifiées, ce qui implique nécessairement un ensemble particulier de choix politiques et de relations sociales. Sans réglementation stricte, ces choix cruciaux sont laissés au secteur privé qui a des intérêts manifestes.  Comme d’autres types d’infrastructures technologiques, médiatiques et humaines, les plateformes de suivi des émissions « restent en retrait » alors que les entreprises « devancent les lois et politiques et agissent en tant que gouvernance de facto, générant de nouvelles infrastructures propriétaires pour connaître et gérer notre planète. »

Les défis liés aux plateformes de suivi de l’empreinte carbone

Bien que les plateformes de suivi de l’empreinte carbone fassent partie d’une industrie émergente, les chercheur·euse·s, les législateur·rice·s et les communautés ont relevé des défis d’importance quant à la réglementation des marchés du carbone et des solutions basées purement sur le marché à la crise climatique. Plusieurs mettent en doute la capacité des crédits compensatoires de carbone à apporter des changements réels, en démontrant comment les crédits et la comptabilisation du carbone reproduisent les structures de pouvoir existantes et ont des répercussions disproportionnées sur les communautés locales et à faible revenu.  Les « émissions négatives » ont généralement été un outil visant à maintenir le statu quo plutôt qu’un effort pour atténuer la crise climatique. D’autres personnes se sont questionnées sur le rôle politique et idéologique des plateformes de suivi de l’empreinte carbone dans la direction des interventions au sein de certaines industries visant à lutter contre les changements climatiques, compte tenu de leur dépendance aux émissions de carbone.

De façon générale, le terme « zéro émission nette » ne fait pas consensus. En effet, c’est un terme manié par différent·e·s acteurs et actrices pour des raisons particulières, parfois à des fins qui ralentissent, voire entravent les actions et les politiques climatiques.  Ces fins se nourrissent de la désinformation, de tactiques délibérées reposant sur l’ambiguïté autour du « zéro émission nette » et des indicateurs utilisés pour jauger les répercussions des émissions de carbone. Par exemple, dans une évaluation des objectifs de zéro émission nette des entreprises, le New Climate Institute a découvert que nombre de ces dernières ne satisfont pas aux exigences de l’accord de Paris, bien qu’elles prétendent pouvoir atteindre leur objectif de zéro émission nette. Ceci est en partie le résultat d’une ambiguïté ainsi que d’un manque de transparence, de standardisation et de surveillance indépendante des systèmes en place utilisés pour certifier diverses interventions liées au zéro émission nette. Or, on s’interroge aussi sur l’efficacité, la précision et les « défauts algorithmiques » potentiels de ces systèmes fondés sur des données. Cela dit, il n’existe que peu d’analyses portées sur le fonctionnement des données et des algorithmes.

Considérations relatives aux politiques

L’émergence de plateformes comme FigBytes soulève d’importantes questions quant au rôle des plateformes de suivi de l’empreinte carbone dans la gouvernance d’écosystèmes et d’environnements plus vastes, à la concentration des pouvoirs du marché, et aux implications sur le plan démocratique du recours à des systèmes propriétaires pour gérer les répercussions écologiques et publiques.

Les plateformes de suivi de l’empreinte carbone soulèvent diverses considérations politiques uniques en leur genre qui devront être explorées au travers d’un plan mondial de gouvernance des plateformes. À l’heure actuelle, nous manquons d’uniformité et de standardisation pour assurer la transparence, la fiabilité et la responsabilité des plateformes de suivi de l’empreinte carbone vis-à-vis des imprécisions ou des préjudices potentiels. Parmi les défis liés aux plateformes, on retrouve la qualité variable des données autodéclarées par les entreprises plateformes à l’aide d’un mélange d’indicateurs internes qui reste aujourd’hui encore évasif.

Parallèlement, il y a un besoin urgent de mettre en place de solides protocoles de vérification et audits indépendants pour s’assurer que les plateformes de suivi de l’empreinte carbone peuvent réellement vérifier les données propriétaires relatives aux émissions de carbone. De sérieuses questions restent ouvertes autour du rôle que doit jouer la surveillance publique et concernant les communautés et acteur·rice·s qui pourraient bénéficier de l’accès à ces données environnementales. Il convient également de se demander si les communautés locales sont pleinement impliquées dans le processus de conception.

Les défis en suspens entourant les plateformes de suivi d’empreinte carbone ravivent des débats plus larges sur le rôle du privé et du public dans la gouvernance des plateformes.  Comme se le demande Holly Jean Buck : « Les décisions politiques concernant la manière de quantifier le carbone, et donc, par extension, concernant les types de dynamiques sociales que nous devons créer dans notre quête du zéro émission nette, ne devrait-elles pas être prises par un processus démocratique plutôt qu’entre gestionnaires et actionnaires? »

Ces questions ne sont pas étrangères aux chercheur·euse·s et professionnel·le·s du domaine de la gouvernance des plateformes. En effet, ces acteur·rice·s sont bien placé·e·s pour se demander quel rôle jouent les plateformes de suivi de l’empreinte carbone dans la gouvernance des écosystèmes et des environnements au sens large, et si les initiatives de zéro émission nette mises en place par les plateformes encouragent l’ambiguïté et les retards en matière de lutte contre les changements climatiques ou bien, au contraire, si ces mécanismes d’entreprise sont un pas en avant sur cette voie.

Ces défis devraient motiver les législateur·trice·s canadien·ne·s à instaurer des exigences dans les déclarations des entreprises plateformes, impliquant des divulgations transparentes de leurs émissions de carbone ainsi que de leurs objectifs de zéro émission nette, des progrès accomplis et des mécanismes de comptabilisation utilisés pour les mesurer.

Au-delà de la consommation d’énergie et de l’extraction d’énergies fossiles, les organismes de réglementation devront adopter une vision holistique de l’écosystème technologique, en prenant également en compte les implications écologiques des systèmes d’IA, l’extraction de ressources naturelles et le travail humain nécessaire au fonctionnement des IA. Les exigences en matière de transparence constituent une avancée importante, mais incomplèle. L’objectif d’un éventuel cadre réglementaire devrait être la mise en place d’un solide mécanisme de responsabilisation, renforcé par une surveillance indépendante des indicateurs utilisés par les entreprises, une standardisation de la conformité climatique, en plus d’audits par des tierces parties concernant les données d’émissions et les affirmations en matière de zéro émission nette.

Plus important encore, la conception et l’élaboration de politiques de responsabilisation en matière de changements climatiques devraient impliquer le public, les peuples autochtones, les jeunes et toutes les autres communautés touchées.

Re-Governing Platform Mediated Work: Disrupting the Disruption to Provide Decent Work

Remanier le travail sur les plateformes : briser la perturbation pour offrir des conditions de travail décentes

by Eric Tucker

La version française est suivi.

Scroll down for the French translation.

 

Platform owners and operators proudly don the mantle of disruptors, claiming to change fundamentally the way we do things, including the performance of work. Instead of the standard employment relation, based on a stable relationship between an employee and employer that is subject to protective labour and employment law, platform mediated work (PMW) purports to dissolve employment and recast workers as individual entrepreneurs who enter into short-term and episodic contracts with clients through the medium of the platform.  These relationships are covered by commercial, not employment law.  If this construction is accepted and given effect, the relationship between the platform worker and the platform essentially falls into the realm of what Elizabeth Anderson has described as “private government”, where workers are subordinated to and dominated by platforms (or clients).  Disruption it is to be sure, but hardly of a kind to be celebrated.  This poses the question of how to re-govern PMW to disrupt the disruption and provide decent work.

The first goal of this Brief is to illuminate the phenomenon of PMW work from a political economy perspective, which understands platforms as capitalist enterprises created to generate profits for their owners and investors.  Second, I explore how this structural feature has important implications for understanding the vulnerabilities of platform mediated workers.  Third, I will consider some efforts by place-based and cloud-based workers to challenge the private government of platform mediated work.  The last part will suggest some ways to re-govern PMW.

In an earlier article on the political economy of PMW, I argued that while capitalism gives unprecedented impetus to developing the forces of production (including digital technologies and artificial intelligence) that could reduce the socially necessary labour time to reproduce our material existence, that emancipatory potential remains unrealized for most workers.  This is because the drive for continuous and unlimited accumulation results in the labour process being designed to extract more value from each unit of labour input and because the bulk of the wealth that is produced flows to capital.  As a result, worker subordination tends to deepen unless workers are able to organize and resist.  There is now a large body of research on the quality of PMW that confirms the political economy prognosis.

PMW is varied but one important distinction is whether platform workers are providing local services to local clients (ground work), as in the case of food delivery, or whether they are working online for global clients (cloud work).

Beginning with the latter, studies show that cloud work draws on a global labour force that primarily performs low-skilled microwork at low pay.  Algorithmic controls give platforms authority over workers by, for example, subjecting them to discipline if it detects a violation of the platform’s rules, which are often not transparent.  Moreover, the platform is designed to promote platform dependency by workers, making exit costly.   Finally, the platform does not provide meaningful channels for individual or collective worker voice. These elements produce a significant degree of platform worker subordination to the platform.  Moreover, while platform workers exercise a degree of agency with regard to clients (that may vary by skill level) clients exercise considerable discretion in determining whether they accept and pay for work that is performed, and workers have limited ability to challenge their decisions.

Ground work necessarily draws on local labour forces and to that extent limits the opportunity for platforms to engage in global labour arbitrage, limiting the extent of economic subordination.  However, most ground work remains low-skill and low-paid; its main attraction is that it provides scheduling flexibility so that it can be slotted in with other forms of part-time and precarious work in which employers schedule hours of work.  Algorithmic controls are also pervasive.  One recent study identified six dimensions: restricting and recommending to direct workers; recording and rating to evaluate workers; and replacing and rewarding to discipline workers. And, as in cloud work, the lack of transparency exacerbates worker stress.

Platform workers have not passively accepted private government and its consequences and have sought ways to re-govern PMW through a combination of labour and political organizing.  Needless to say, it has been a hard slog for both ground and cloud workers.

Ground workers in several jurisdictions, including Canada, have attempted to organize unions and bargain collectively with their platforms.  To do so, they must first bring themselves within the boundaries of labour law, which covers both employees and ‘dependent contractors’ who perform work for compensation on such terms and conditions that put them in a position of economic dependence that more closely resembles the relationship of an employee than that of an independent contractor.  Foodora workers in Ontario successfully organized in this way, only to have Foodora withdraw from the province in response.

Outside of the realm of collective bargaining, platform workers have also sought protection under minimum standards laws.  While these claims have succeeded in some jurisdictions, Canadian platform workers have not obtained a judgment to that effect.

Cloud workers face a very different and more difficult landscape. Cloud work platforms draw on a global workforce and client base, sharply reducing or eliminating the possibility of place-based organization.  Legal or political strategies are also more difficult.  Unlike ground work, in which platforms assume an interior role in the organization of work, making them liable to be found employers, cloud work platforms remain largely external to work organization and act as intermediaries between workers and clients.  Therefore, cloud worker claims to employment status would almost certainly fail.  As well, lobbying for political intervention is challenging since it is unclear whether any single government could regulate the relationship between the platform and its globally dispersed workforce.  As a result, cloud worker organizing has largely been limited to information sharing.  While this may assist cloud workers to navigate platforms and clients, it generates little countervailing power that could achieve platform re-governance.

Given the structural differences between platform mediated ground and cloud work, policy-makers might consider adopting a bifurcated re-governance strategy. While more research is required, we can identify some strategies to improve PMW ground work.  These include: deeming or presuming workers to be employees and/or adopting legal tests that would make it easier for them to claim that status; laws requiring transparency in regard to algorithmic management controls; protections against arbitrary suspensions or removals from the platform and sectoral bargaining that would establish industry-wide union representation and collective agreements.  Re-governing cloud work is more challenging given its globalized work force and client base which makes it difficult for any single jurisdiction to effectively regulate, so we may to consider how to better support and strengthen cloud worker self-organization


la version française

Remanier le travail sur les plateformes : briser la perturbation pour offrir des conditions de travail décentes

Les propriétaires et opérateurs de plateformes revendiquent fièrement leur statut de perturbateurs, en affirmant changer fondamentalement notre façon de faire les choses, notamment l’exécution du travail. Au lieu d’une relation de travail standard, basée sur une relation stable entre un·e employé et son employeur·euse soumise au droit du travail et aux lois sur la protection de l’emploi, le travail sur les plateformes prétend dissoudre l’emploi et transformer les travailleur·euses en entrepreneur·es individuel·les travaillant sur la base de contrats à court terme et ponctuels auprès de clients par l’intermédiaire d’une plateforme.  Ces relations sont non plus couvertes par le droit du travail, mais par le droit commercial.  Si cette structure est acceptée et mise en mise en œuvre, la relation entre un·e travailleur·euse sur plateforme et la plateforme relèvera essentiellement du domaine de ce qu’Elizabeth Anderson a décrit comme un « gouvernement privé », où les travailleur·euses sont subordonné·es et dominé·es par les plateformes (ou les clients).  La perturbation est certes garantie, mais loin de se prêter aux réjouissances.  Ces considérations soulèvent la question suivante : comment remanier le travail sur plateforme pour perturber cette perturbation et offrir un travail décent?

Dans un premier temps, cet essai vise à mettre en lumière le phénomène du travail sur plateforme dans une perspective d’économie politique, qui considère les plateformes comme des entreprises capitalistes créées dans le but de générer des profits pour leurs propriétaires et leurs investisseur·se·s.  Ensuite, j’examinerai les implications de cette caractéristique structurelle pour comprendre les vulnérabilités auxquelles sont exposés les travailleur·euses sur plateforme.  Je me pencherai ensuite sur certains efforts déployés par des personnes travaillant localement et dans un environnement infonuagique pour contester le gouvernement privé que constitue le travail sur les plateformes.  Enfin, nous offrirons des suggestions de remaniement du travail sur les plateformes.

Dans un précédent article sur l’économie politique du travail sur les plateformes, j’avance que si le capitalisme donne un élan sans précédent au développement des forces de production (notamment les technologies numériques et l’intelligence artificielle) qui pourraient réduire le temps de travail socialement nécessaire à la reproduction de notre existence matérielle, ce potentiel d’émancipation n’est toujours pas une réalité pour la plupart des travailleur·euses.  En effet, la volonté d’accumulation continue et illimitée fait que le processus de travail est conçu pour extraire plus de valeur de chaque unité de travail et que l’essentiel de la richesse produite est redirigé vers le capital.  Par conséquent, la subordination des travailleur·euses a tendance à s’aggraver, à moins qu’ils/elles ne soient en mesure de s’organiser et de résister.  Le pronostic de l’économie politique est aujourd’hui confirmé par un vaste ensemble de recherches sur la qualité du travail sur les plateformes.

Le travail sur les plateformes est varié, mais il est important de distinguer si les travailleur·euses sur plateforme offrent des services locaux une clientèle locale (travail de terrain) comme dans le cas de la livraison de nourriture, ou s’ils travaillent en ligne pour des clients internationaux (travail infonuagique).

Concernant ce dernier, les études montrent que le travail infonuagique repose sur une main-d’œuvre mondiale effectuant principalement des microtâches peu qualifiées et mal rémunérées.  Les contrôles algorithmiques confèrent aux plateformes une autorité sur les travailleur·euses, en les soumettant par exemple à des mesures disciplinaires si elles détectent une violation des règles de la plateforme, souvent opaques.  En outre, la plateforme est conçue pour favoriser la dépendance des travailleur·euses à son égard, de sorte que la quitter est coûteux.   Enfin, la plateforme n’offre pas de canaux adéquats pour l’expression individuelle et collective des travailleur·euses. Ces éléments produisent une subordination considérable des travailleur·euses à la plateforme.  En outre, tandis que les travailleur·euses sur les plateformes disposent d’une certaine marge de manœuvre par rapport aux clients (qui peut varier selon le niveau de compétence), ces derniers disposent quant à eux d’un pouvoir discrétionnaire considérable dans la décision d’accepter et de payer le travail effectué, et les moyens à disposition des travailleur·euses pour contester ces décisions sont limités.

Le travail de terrain fait nécessairement appel à la main-d’œuvre locale; dans cette mesure, il restreint la possibilité pour les plateformes de se livrer à un arbitrage mondial de la main d’œuvre, limitant ainsi l’étendue de la subordination économique.  Néanmoins, la majeure partie du travail de terrain reste peu qualifié et mal payé; son principal attrait réside dans la flexibilité des horaires, ce qui permet de le combiner avec d’autres formes de travail à temps partiel précaires où les employeurs fixent les horaires.  Les contrôles algorithmiques sont également omniprésents.  Une étude récente en a cerné six dimensions : restreindre et recommander pour orienter les travailleur·euses; enregistrer et coter pour évaluer les travailleur·euses; et remplacer et récompenser pour discipliner les travailleur·euses. Et, tout comme dans le travail infonuagique, le manque de transparence exacerbe le stress des travailleur·euses.

Les travailleur·euses sur plateforme n’ont pas passivement accepté ce gouvernement privé et ses conséquences; ils/elles ont cherché des façons de remanier le travail sur les plateformes par le biais d’une combinaison d’organisations syndicales et politiques.  Il est inutile de dire que, pour les travailleur·euses de terrain et infonuagiques, il s’agit d’un combat long et pénible.

Dans plusieurs pays, y compris le Canada, les travailleur·euses de terrain ont tenté de créer des syndicats et de négocier collectivement avec leurs plateformes.  Pour ce faire, ils doivent tout d’abord entrer dans le champ d’application du droit du travail, qui couvre à la fois les employé·es et les « entrepreneur·es dépendants » qui effectuent un travail contre rémunération dans des conditions qui les placent dans une position de dépendance économique ressemblant davantage à la position d’un·e salarié·e qu’à celle d’un·e entrepreneur·e indépendant·e.  En Ontario, les travailleur·euses de Foodora sont parvenu·es à s’organiser de la sorte, mais la réaction de Foodora a été de cesser ses opérations dans la province.

En dehors du domaine de la négociation collective, les travailleur·euses sur plateforme ont également cherché à obtenir une protection en vertu des lois sur les normes minimales.  Bien que ces demandes aient abouti dans certains pays, les travailleur·euses sur plateforme canadien·nes n’ont pas obtenu de jugement en ce sens.

Les travailleur·euses infonuagiques se trouvent dans un contexte très différent et d’autant plus difficile. Les plateformes de travail infonuagiques font appel à une main-d’œuvre et une clientèle mondiales, ce qui réduit considérablement, voire élimine, la possibilité d’une organisation de terrain.  Les stratégies juridiques ou politiques sont également plus complexes.  Contrairement au travail de terrain, où les plateformes jouent un rôle interne dans l’organisation du travail, ce qui les rend susceptibles d’être considérées comme des employeurs, les plateformes de travail infonuagique restent largement extérieures à l’organisation du travail et agissent en tant qu’intermédiaires entre les travailleur·euses et la clientèle.  Il est donc quasiment certain que les demandes des travailleur·euses infonuagiques concernant leur statut d’emploi seraient vouées à l’échec.  Il est également difficile de faire pression pour obtenir une intervention politique, car il n’est pas certain qu’un seul gouvernement soit en mesure de réglementer la relation entre la plateforme et sa main-d’œuvre dispersée dans le monde entier.  Par conséquent, l’organisation des travailleur·euses infonuagiques se trouve largement limitée au partage d’information.  Bien que cette stratégie puisse aider travailleur·euses infonuagiques à composer avec la plateforme et la clientèle, elle ne génère que peu de contrepouvoirs susceptibles d’assurer le remaniement de la plateforme.

Compte tenu des différences structurelles entre le travail sur plateforme dans un environnement infonuagique et sur le terrain, les décideur·euses politiques pourraient envisager d’adopter une stratégie de remaniement à deux volets. Bien que des recherches supplémentaires soient nécessaires, il est possible de déterminer certaines stratégies qui permettraient d’améliorer le travail de terrain sur les plateformes.  On peut en citer plusieurs, notamment : considérer ou présumer que les travailleur·euses sont des employé·es et adopter des critères juridiques qui permettraient de revendiquer plus facilement ce statut; des lois exigeant la transparence en ce qui concerne les contrôles de la gestion algorithmique; des protections contre les suspensions ou les suppressions arbitraires de la plateforme et des négociations sectorielles qui établiraient une représentation syndicale et des conventions collectives à l’échelle de l’industrie.  Il est plus compliqué de remanier le travail infonuagique compte tenu de sa main-d’œuvre et de sa clientèle mondialisée, qui rend difficile une réglementation efficace par un seul pays; nous pourrions donc envisager des façons de soutenir et de renforcer plus efficacement l’auto-organisation des travailleurs infonuagiques.

Harmful Hallucinations: Generative AI and Elections

Authors: Spencer McKay, Chris Tenove, Nishtha Gupta, Jenina Ibañez, Netheena Mathews, Heidi Tworek

As 2024 shapes up to be the “Year of Deepfake Elections,” generative artificial intelligence, or GenAI, is being used at unprecedented levels. GenAI has been used to imitate political figures, harass political candidates, and spread incorrect information globally.

This report reveals how the increasingly popular technology threatens democratic processes like elections by enabling deception, polluting the information environment, and intensifying harassment. GenAI lowers the costs of deploying existing disinformation tactics that already plague social media platforms. To date, there is little evidence showing that the beneficial uses of GenAI in elections will outweigh these harmful ones.

While the report cautions against exaggerating GenAI threats, it emphasizes that policymakers cannot be complacent.

In the absence of a technological silver bullet to counter threats to democracy, state-led regulation and electoral management oversight are necessary. The report advocates for sector-specific recommendations, urging policymakers to develop a resilient information ecosystem with institutions that not only produce accurate information but also cultivate citizens’ trust in these systems.

Report Credits

Lead authors: Spencer McKay and Chris Tenove
Co-authors: Nishtha Gupta, Jenina Ibañez, Netheena Mathews, Heidi Tworek
Report design and illustration: Oliver McPartlin

We would like to thank Emily Laidlaw of the University of Calgary and Fenwick McKelvey of Concordia University for their thoughtful feedback on an earlier version of the report.

Additional information about the research team and acknowledgments is available in the report.

Citation: McKay, Spencer, Chris Tenove, Nishtha Gupta, Jenina Ibañez, Netheena Mathews, Heidi Tworek. (2024). Harmful Hallucinations: Generative AI and Elections. Vancouver: Centre for the Study of Democratic Institutions, University of British Columbia. DOI: https://doi.org/10.14288/1.0445035

Publication info: Copyright © 2024; Centre for the Study of Democratic Institutions; University of British Columbia. This work is licensed under CC BY-NC-ND 4.0 (creativecommons.org/licenses/by-nc-nd/4.0).

Initiatives

     

Platform Governance During Elections Around the World

Social media platforms expand how citizens can engage in politics, but they may also be used to undermine full and fair democratic participation. In many elections, platforms have enabled foreign interference, threats against politicians, and disinformation campaigns about voting processes and political issues. Governments around the world have responded with policies to protect election integrity and democratic participation. However, government regulations and platforms’ own policies have provoked concerns about issues including election fairness and freedom of expression.

Our research asks:

  • What policies are governments and platforms adopting to regulate communication during elections?
  • How and why do these policies vary around the world?
  • What policies can best protect full and fair democratic participation across a diverse set of countries and regions?

The research will be shared via academic publications and presentations, policy reports, and engagements with policymakers, civil society groups, and citizens.

This four-year project is led by CSDI’s Chris Tenove and Heidi Tworek, working with a team of collaborators within and outside Canada. Our key collaborators are:

  • Wendy Hui Kyong Chun, Simon Fraser University
  • Elizabeth Dubois, University of Ottawa
  • Ivar Hartmann, Insper Institute of Education and Research, Brazil
  • Christian Katzenbach, University of Bremen, Germany
  • Molly S. Laas, Social Science Research Council, USA
  • Emily Laidlaw, University of Calgary
  • temi lasade-anderson, King’s College London, UK
  • Jonathan Corpus Ong, University of Massachusetts Amherst, USA
  • Taylor Owen, McGill University
  • Yves E. Tiberghien, University of British Columbia

Research is supported by an Insight Grant from the Social Sciences and Humanities Research Council for “A Global Comparative Study of Policies to Protect Democratic Participation on Social Media Platforms,” with Tworek as the principal investigator. Additional support is provided by the Canadian Digital Media Research Network.

The Peril and Promise of AI for Journalism

Journalists around the world are responding to the dramatic rise of artificial intelligence (AI), and particularly generative AI. Many newsrooms are experimenting with these tools and identifying new opportunities. At the same time, many journalists and commentators see AI as the biggest threat to journalism in decades.

To reflect on these critical developments, the Centre for the Study of Democratic Institutions (CSDI) convened a workshop on Journalism, Disinformation, and AI at the University of British Columbia on November 21, 2023. Support and assistance were provided by the Consulate General of Germany in Vancouver, UBC’s School of Journalism, Writing, and Media, and the Centre for Computational Social Science.

The workshop featured:

  • Matt Frehner, Head of Visual Journalism at The Globe and Mail
  • Cathryn Grothe, Research Analyst at Freedom House
  • Stephen Marche, Journalist and novelist
  • Thorsten Quandt, Professor of online communication, University of Münster
  • Julia Smirnova, Senior Analyst at the Institute for Strategic Dialogue (ISD)
  • Chris Tenove, CSDI Interim Director

This report draws on insights from the workshop, along with recent academic and journalistic publishing. It highlights three major issues:

  • How generative AI can make disinformation campaigns faster, more targeted, and more persuasive.
  • How newsrooms’ adoption of AI tools can lead to inaccuracies and other risks.
  • How AI may threaten the viability of professional journalism, including through automation and content generation that replaces human journalists.

In response, journalists are developing investigative practices to expose disinformation campaigns, experimenting with AI tools to make their own work more efficient, and developing ethical guidelines and labour protections to defend professional journalism. Likewise, the news industry, policymakers, and platforms are considering responses that range from workforce training to newsroom innovation to new professional guidelines to AI regulation.

Through this report, CSDI hopes to contribute to important public conversations about the impact of new technologies on journalism and our information environments. Ultimately, the responses developed by journalists, policymakers, technologists, and citizens will shape our efforts to understand the world and act as democratic citizens.

Report Credits

  • This report was researched and written by Nishtha Gupta, Jenina Ibañez, and Chris Tenove.
  • Report design and copy-editing by Andrew Munroe at the Global Reporting Centre.
  • Additional copy-editing by Netheena Matthews.
  • Report distribution by Emma Arkell and Michelle Meiklejohn at the Global Reporting Centre.
  • Further details on the research team and acknowledgments can be found in the report.

Citation: Gupta, Nishtha, Jenina Ibañez, and Chris Tenove. (2024). The Peril and Promise of AI for Journalism: Vancouver: Centre for the Study of Democratic Institutions, University of British Columbia.

This work is licensed under CC BY-NC-ND 4.0.

Academic / Research Assistant

Research or Academic Assistants to Analyze Policies for Social Media in Elections

Job Classification: Research or Academic Assistant

Status: Part-time Hourly

Start Date: Oct 1, 2023 or as soon as possible

End Date: One year, possibly renewable

Salary: $30 – $40 per hour depending on skills and experience (including benefits)

Hours per month: 25 – 35 hours per month

Funding: Grant funding

The hours to be worked will depend in part on the individual’s availability and the extent of work they undertake.  It will average 25 to 35 hours per month, with some flexibility regarding when those hours are worked.  

About the Project and Position

Social media platforms expand how citizens can engage in politics, but they may also be used to undermine full and fair democratic participation. In many elections, platforms have enabled foreign interference, false claims about voting processes, threats against politicians, and disinformation campaigns about key political issues. In recent years, governments around the world have responded with policies to regulate social media and protect democratic participation.

Associate Professor Heidi Tworek and Research Associate Chris Tenove, the director and assistant director of the Centre for the Study of Democratic Institutions, are running a multi-year study to investigate this topic. Working with Professor Yves Tiberghien at UBC and collaborators at other universities, the project will pursue three key questions: What factors shape the policies that different governments adopt? How do these affect the behavior of social media platforms? Most importantly, what policies are more or less effective at safeguarding democratic elections?

We seek two RA/AAs to make important contributions to this project for one or more years. The individuals would pursue comparative policy research on the regulation of social media in election contexts, and to write up findings for both academic and policy audiences. One researcher will focus more on the development and spread of policies globally, and the second will develop case studies of policies in several Asian countries and/or Canada.

To read more about the project, please visit: https://democracy.ubc.ca/platforms/platform-governance-elections/.

Work Performed:

The candidates’ tasks will include:

  • help to review existing academic and policy literature;
  • help with developing an analytic strategy and database to compare government policies globally;
  • work with collaborators to document government policies and populate the database
  • analyze research data; 
  • assist in manuscript writing and potentially co-author an academic article or book chapter;
  • assist in preparing knowledge mobilizations materials, which could range from social media posts to a short policy brief for the Canadian government (or similar); 
  • meet regularly with the supervisor to discuss research tasks;
  • participate in occasional online meetings with project collaborators; 
  • in all these tasks, the RA will help advance the EDI objectives of this project.

Qualifications and expertise: 

A graduate student (PhD or Master’s) or Postdoctoral fellow, preferably from Political Science, Law, Asia Studies, or Public Policy and Global Affairs at UBC. Individuals with one or more of the following areas of expertise are preferred:

  • Previous research and publishing experience; 
  • Knowledge of internet policy and/or election management; 
  • Knowledge of the political institutions of one or more countries outside Canada, including India, South Korea, or Taiwan;
  • Fluency in a language other than English.

Desired Skills 

  • Strong oral and written communication skills
  • Attention to detail
  • Database creation and management
  • Quantitative data analysis
  • Report and manuscript writing skills
  • Time management skills
  • Ability to work under minimal supervision  

Consequence of Error/Impact of Decision:

  • Errors or incorrect decisions in accuracy, judgement, and communication could potentially result in delays in completing the project or seriously compromise the productivity and quality of the research.
  • Failure to seriously follow the project procedures will result in an inability to meet the deadlines and delay in completion of the project.
  • Failure to demonstrate professional and ethical performance could result in loss of credibility for the project, researcher, and the organization.

Supervision received

Each RA/AA will be expected to work relatively independently with guidance and feedback from Dr. Tenove and Dr. Tworek or Dr. Tiberghien.

Supervision given

None

UBC diversity statement: 

Equity and diversity are essential to academic excellence. An open and diverse community fosters the inclusion of voices that have been underrepresented or discouraged. We encourage applications from members of groups that have been marginalized on any grounds enumerated under the B.C. Human Rights Code, including sex, sexual orientation, gender identity or expression, racialization, disability, political belief, religion, marital or family status, age, and/or status as a First Nation, Metis, Inuit, or Indigenous person.

To apply

We will consider applications on a rolling basis until September 22, please send the following to write Chris Tenove (cjtenove@mail.ubc.ca):

  • CV or resumé
  • A brief statement of your relevant research experiences, interests and skills, and how they relate to the RA/AA position (max. 250 words)

Please write Chris if you have any further questions.