Verified-as-Canadian Content? Bill C-11 and the Platform Infrastructure of the Verified Badge System

Verified-as-Canadian Content? Bill C-11 and the Platform Infrastructure of the Verified Badge System

Contenu certifié canadien? Le projet de loi C-11 et l’infrastructure des systèmes de badges certifiés

by Robyn Caplan

La version française est suivi.

Scroll down for the French translation.

On October 27, 2022, Elon Musk became the new owner and CEO of Twitter. By October 30, 2022, Musk tweeted that the verified badge, known as the “blue check” (despite it being a white checkmark on a blue background), was being “revamped.” It would now become a paid-for-feature of Twitter’s existing subscription product, Twitter Blue. The change would require current blue-check holders to pay USD $7.99 a month (the price negotiated down from USD $19 by Stephen King on Musk’s Twitter thread) to keep their blue check. For everyone else, a subscription to Twitter Blue could buy you that blue check without undergoing the same verification process that had been required of the legacy blue-check holders. When the new feature launched on November 5, 2022, there was a rapid increase of impersonations with newly paid-for blue checks posed as companies like Eli Lilly, McDonalds, Nintendo, and American Girl. Since then there have been even bigger changes to the system; Twitter began winding down its legacy verification program on April 1, 2023, and is now charging all users for the service, including major organizations.

Prior to Twitter’s fiasco, platform companies had increasingly used tools like verification to distinguish between official and unofficial sources. The online adult video platform, Pornhub, announced they had removed all verified videos, limiting uploads to verified users only, following an investigative opinion piece by The New York Times’s Nicolas Kristof that followed the lives of sexual abuse victims whose videos were uploaded to the site.

Other platforms use “verification” to distinguish between sources, often framing these efforts within concerns about safety and trustworthiness. For instance, Airbnb announced in 2019 that it would verify all of its listings, including the accuracy of photographs, addresses, and other information posted by hosts about themselves and their properties. In 2020, Tinder rolled out a blue checkmark verification system to deter catfishing, asking users to take selfies in real time and match poses in sample images. Prior to its takeover by Elon Musk, Twitter opened a draft of their new verification system to public comment.

Recognizing that they have offered verification as a service to brands and organizations, other platforms are also moving in the direction of Twitter and charging this as security infrastructure. For instance, Meta recently unveiled Meta Verified, a subscription bundle on Instagram and Facebook that authenticates creators’ accounts with government ID, proactive account protection, access to account support, and increased visibility and reach. Though this sort of pay-to-play arrangement does not benefit creators (or perhaps anyone), it does demonstrate that verification is becoming a type of infrastructure that platforms now offer.

In the current debate about Bill C-11, the Online Streaming Act, the verified badge system is one example of a tool that platforms can use to balance the needs and interests of Canadians with the realities of platforms where commercial and user-generated content converge. Verification has not yet been featured in these discussions. However, the verified badge system – currently in flux at so many different platforms –may offer a way to differentiate between the different sources of content – official and unofficial, commercial and non-commercial content, Canadian and not Canadian – that converge over online platforms.

Verified Canadian Content?  

The term verification has had multiple and varied meanings within platform governance. Emily van der Nagel defined verification as “the confirmation that an account is linked with a particular person.”  She draws on Craig Robertson to argue that verification “draws on official personal information.” The longstanding internet debate regarding pseudonymity and anonymity online sees verification as synonymous with “real names.”

Verification has also come to signify status and notability. Though not all users are eligible to be “verified” (in the blue checkmark sense), those who are verified often have to provide official government identification. In one sense, this is a form of “identity confirmation” of the more famous users of platforms. Some policies – such as those implemented in 2014 by both Instagram and YouTube – were created to address the identity concerns of their high-status members.

But platforms have also viewed verification as one solution to the broader problem of trustworthiness or credibility online, often framed narrowly within the lens of mis- and disinformation. In some cases, verification is used to mediate and highlight credible and authoritative information—as was the case with Twitter during the early stages of COVID-19 or content from platform-approved sources (the case with Pornhub). In all of these senses, verification signals a broader shift in content moderation away from content and toward sources.

Within the Canadian context, there is an open question as to whether the verified badge might solve some of the issues around what constitutes Canadian content within spaces where both traditional media and user-generated media co-exist. When it comes to Bill C-11, the Online Streaming Act, there has been considerable back-and-forth on whether the law will apply to digital creators. Many creators and tech platforms, as well as experts such as Michael Geist and Dwayne Winseck, have argued against the inclusion of user-generated content within the Bill. However, the Canadian Heritage Minister Pablo Rodriguez rejected a Senate amendment to narrowly tailor the Bill and scope the regulation of social media services to “the distribution of commercial programs” over services like Netflix. This means that C-11 will (unless it is changed) apply to TikToks, YouTube videos, and other user-generated content. How the CRTC establishes the requirements for regulating this type of content is still to be determined.

When it comes to distinguishing Canadian content, platforms like YouTube have said that their focus is “protecting the livelihood of digital Canadian creators.” They have said that implementing C-11 will introduce new concerns for those creators, who may be downranked if their content is surfaced to users because it is Canadian, and not because it is relevant. There is evidence that within an algorithmic model (rather than, for instance, a subscription model) this may be the case. Although algorithms do take location into account – such as through geolocation, or recommending content your friends and family like, which might also be Canadian – recommendation algorithms are optimized mostly for predicting engagement.

Still, as the verified badge system demonstrates, particularly in Twitter and Meta’s recent changes, the verified badge could both differentiate between types of content or sources and offer a route  to increase visibility and reach. Although the CRTC will need to decide what constitutes “Canadian content” for creators and other user-generated content, it may be useful to explore what a “verified Canadian badge” may look like, how users can self-select into these programs, and how that infrastructure could be used to direct resources – both attention and otherwise – to Canadian creators.

la version française

Contenu certifié canadien? Le projet de loi C-11 et l’infrastructure des systèmes de badges certifiés

Le 27 octobre 2022, Elon Musk est devenu le nouveau propriétaire et PDG de Twitter. Dès le 30 octobre 2022, Musk a gazouillé que le badge certifié, aussi appelé « crochet bleu » même s’il s’agit d’un crochet blanc sur fond bleu, allait être « refondu ». Il fera désormais partie de l’abonnement payant préexistant de Twitter, Twitter Blue. Désormais, on demandera aux détenteur·trice·s d’un crochet bleu de payer des frais mensuels de 7,99 $ US (le prix était initialement de 19 $ US, il a été négocié à la baisse par Stephen King sur le fil twitter d’Elon Musk) pour le garder. Pour les autres utilisateur·trice·s, il était possible de s’acheter un crochet bleu avec l’abonnement Twitter Blue, contournant ainsi le processus de vérification qui avait été de procédure pour les ancien·ne·s détenteur·trice·s de crochets bleus. Lorsque la fonctionnalité a été lancée le 5 novembre 2022, les imposteur·trice·s ont pullulé en abusant du nouveau crochet bleu payant pour se faire passer pour des entreprises comme Eli Lilly, McDonald’s, Nintendo et American Girl. Depuis, il y a eu des changements encore plus importants au système : Twitter a commencé à démanteler son ancien programme de vérification le 1er avril 2023. Aujourd’hui, Twitter demande à tous·te·s ses utilisateur·trice·s de payer pour ce service, même les grandes organisations.

Avant le fiasco de Twitter, la vérification était un outil de plus en plus utilisé par les plateformes pour distinguer les sources officielles et non officielles. Pornhub, une plateforme de vidéos pour adultes en ligne, a annoncé qu’elle avait enlevé de son site toutes les vidéos non vérifiées à la suite de la publication d’un article de journalisme d’enquête et d’opinion par Nicolas Kristof du New York Times qui suivait les vies de victimes d’abus sexuels dont les vidéos avaient été mis en ligne sur le site. La plateforme a donc limité la mise en ligne aux utilisateur·trice·s vérifié·e·s.

Pour d’autres plateformes, la « vérification » est une façon de distinguer les sources fiables de celles qui ne le sont pas. Elles rationalisent leurs efforts par un souci d’assurer la sécurité et la confiance. Par exemple, Airbnb a annoncé en 2019 que toutes leurs annonces seraient vérifiées, entre autres dans la justesse des photographies, de l’adresse et des autres informations personnelles et sur la propriété fournies par les hôte·esse·s. En 2020, dans le but d’éradiquer les cyberimposteur·trice·s, Tinder a lancé son système de vérification à crochet bleu qui demande aux usager·ère·s de prendre des égoportraits en temps réel de manière à correspondre aux poses sur des images d’échantillon. Avant d’être repris par Elon Musk, Twitter avait soumis à l’avis du public une ébauche de leur nouvelle formule de vérification.

La vérification en tant que service offert aux marques et aux organisations n’est pas passée sous le radar des autres plateformes, qui suivent l’idée de Twitter de faire payer pour cette infrastructure de sécurité. Par exemple, Meta a récemment dévoilé Vérifié par Meta, un ensemble d’abonnements sur Instagram et Facebook qui authentifie les comptes des créateur·trice·s à l’aide d’une pièce d’identité officielle. Le service offre également une protection active et des services de soutien pour le compte, ainsi qu’une plus grande portée et visibilité. Bien que ce genre de modèle payant n’est pas profitable aux créateur·trice·s (ni, peut-être, à personne), il est maintenant évident que la vérification est aujourd’hui devenue une sorte d’infrastructure offerte par les plateformes.

Dans le débat autour du projet de loi C-11, la Loi sur la diffusion continue en ligne, le système de badge certifié est un exemple d’un outil à la disposition des plateformes pour concilier les besoins et intérêts des Canadien·ne·s avec les réalités des plateformes où convergent le contenu commercial et celui crée par les utilisateur·trice·s. La certification n’a pas encore été considérée dans ces discussions. Toutefois, le système de badges certifiés, bien qu’il soit actuellement en mutation sur beaucoup de plateformes, peut offrir une façon de différencier les sources de contenu sur les plateformes en ligne : officielles et non officielles, commerciales et non commerciales, canadiennes et non canadiennes.

Contenu canadien certifié?

Le terme vérification comporte plusieurs sens variés en ce qui a trait à la gouvernance des plateformes. Emily van der Nagel définit la vérification comme la « confirmation que le compte est lié à une personne en particulier ». Elle s’appuie sur Craig Robertson pour avancer l’argument que la vérification « se base sur des informations personnelles officielles ». Dans le cadre de l’éternel débat sur internet autour du pseudonymat et de l’anonymat en ligne, la vérification est synonyme de « vrais noms ».

La certification est également devenue synonyme de statut et de notoriété. Bien que ce ne soit pas tous·te·s les utilisateur·trice·s qui puissent être « certifié·e·s » (pour l’obtention du crochet bleu), ceux et celles qui le peuvent doivent souvent fournir une pièce d’identité officielle du gouvernement. À cet égard, c’est une sorte de « validation de l’identité » des personnalités les plus célèbres de la plateforme. Certaines mesures, comme celles mises en œuvre en 2014 par Instagram et YouTube, sont nées des soucis de leurs membres à statut élevé concernant leur identité.

Les plateformes voient également la certification comme une solution au problème plus large de la crédibilité et de la fiabilité sur Internet, qu’on considère souvent dans le cadre réducteur de la mésinformation et de la désinformation. Dans certains cas, la certification est aussi utile pour relayer et mettre en évidence les sources d’information crédibles et faisant autorité. Ce fut le cas sur Twitter durant les premiers ébats de la pandémie de COVID-19, ou encore pour le contenu de sources approuvées par les plateformes (comme dans le cas de Pornhub). Dans tous ces cas de figure, le phénomène de la vérification indique un mouvement plus général dans la modération du contenu, s’éloignant du contenu en tant que tel pour se concentrer sur les sources.

Dans le contexte canadien, la question reste ouverte quant à savoir si les badges certifiés peuvent résoudre certains des problèmes liés à la définition de ce qui est considéré comme du contenu canadien au sein d’espaces où coexistent les médias traditionnels et le contenu généré par les utilisateur·trice·s. En ce qui a trait au projet de loi C-11, la Loi sur la diffusion continue en ligne, son application aux créateur·trice·s de contenu numérique attise de chauds débats. Créateur·trice·s et plateformes ont joint leurs voix à des spécialistes comme Michael Geist et Dwayne Winseck, qui se campent contre l’inclusion du contenu produit par les utilisateur·trice·s dans le projet de loi. Toutefois Pablo Rodriguez, ministre du Patrimoine canadien, a rejeté un amendement du Sénat visant à restreindre la portée du projet de loi et de la réglementation des services de médias sociaux à la « distribution de programmes commerciaux » par le biais de services comme Netflix. Cela veut dire que le projet de loi C-11 s’appliquera (à moins qu’il soit modifié) aux vidéos YouTube et Tiktok, ainsi qu’à tout autre contenu produit par les utilisateur·trice·s. L’approche du Conseil de la radiodiffusion et des télécommunications canadiennes en ce qui a trait à l’établissement des exigences pour la réglementation (CRTC) de ce genre de contenu reste à déterminer.

En ce qui concerne la distinction du contenu canadien, certaines plateformes, comme YouTube, ont dit que leur objectif est « de protéger le gagne-pain des créateur·trice·s de contenu canadien·ne·s ». À leur avis, la mise en œuvre du projet de loi C-11 va introduire des problèmes pour ces créateur·trice·s, qui pourraient se voir déclassé·e·s si leur contenu apparaît parce qu’il est canadien et non parce qu’il est pertinent. Certaines données indiquent que cela pourrait être le cas des modèles algorithmiques (par rapport aux modèles d’abonnement, par exemple). Bien que l’emplacement soit pris en compte par les algorithmes (par le biais de la géolocalisation, ou encore par la recommandation de contenu auquel vos ami·e·s ou les membres de votre famille, qui risquent d’être eux et elles aussi des Canadien·ne·s, ont attribué la mention « J’aime »), les algorithmes de recommandation sont principalement optimisés pour prédire la participation des utilisateur·trice·s.

Comme le démontre le système de badges certifiés, particulièrement à la lumière des dernières modifications de Twitter et Meta, cette méthode d’authentification constituerait une façon de différentier entre les types de contenus et de sources, tout en permettant d’accroître la visibilité et la portée de ce contenu. Bien que le CRTC doive encore définir ce qui constitue du « contenu canadien » pour les créateur·trice·s et le reste du contenu produit par les utilisateur·trice·s, l’idée d’un « badge certifié canadien » mérite d’être explorée. Il serait également intéressant d’envisager de quelle manière les utilisateur·trice·s pourront participer volontairement à ces programmes, et comment cette infrastructure pourrait être mise à profit pour diriger les ressources, qu’il s’agisse de l’attention des utilisateur·trice·s ou de ressources d’autres types, vers les créateur·trice·s canadien·ne·s.

Canada’s Election Laws Aren’t Ready for Social Media Influencers

Les lois électorales du Canada sont trop peu préparées au marketing d’influence

by Elizabeth Dubois

La version française est suivi.

Scroll down for the French translation.

Social media influencer marketing – when an influencer is paid or otherwise compensated to share certain messages –  is increasingly popular in political campaigns around the world. In Canada, social media influencers have been called to volunteer their voice during the COVID-19 pandemic and paid as part of government marketing strategies. Influencer marketing is growing in popularity in the US among prominent political parties and advocacy groups as a core part of their communication strategies. In the US, Philippines, India, Brazil and Nigeria, to name a few, social media influencers are being strategically used in disinformation campaigns, to spread hate and harassment, and to secretly influence election outcomes.

The appeal is clear: influencers tend to have deep knowledge of their followers and fans, and those followers and fans feel socially connected to the influencers even when they have never actually met, which means influencers can tailor messages to those followers and fans. The assumption is that influencers are seen as a more trustworthy source because their followers and fans choose to receive messages from them.

But these influencers can also be used to evade laws such as transparency measures and spending limits, or to distance a campaign from a message – as might be desirable for attacks on opponents, for disinformation, and for hate and harassment.

Canada’s federal election laws are not ready for what’s coming as social media influencers become more integrated into campaign communications. We need to start with a public discussion about how we identify and categorize social media influencers and their roles. Then we need to ensure loopholes are close so that influencers can engage productively in campaigns.

Ad registries and placement costs

Ahead of the 2019 Federal Elections in Canada, the Election Modernization Act came into effect. As part of a larger collection of changes, a digital ad registry was mandated for all digital platforms with a minimum number of monthly unique visitors. In 2019 Google and YouTube opted not to allow any election advertisements while Facebook did, creating their Ad Library. A number of news organizations also met the threshold and created ad registries.

The ad registries include “partisan” and “election” advertisements and include a copy of the posted advertisement and information on who paid to promote it. Some platforms choose to add information on whom the ad was targeted and how much it cost. These registries represent a needed increase in transparency around political advertising and micro-targeting on social media.

However, ad registries rely on the advertisements to have been placed using the platforms’ own advertising system and ignore the various ways those systems could be circumvented. This is partly because our definitions of what counts as political advertisements and paid promotion are rooted in an understanding of a pre-social media media environment.

A key concept is the “placement cost” which current election laws are designed around. For an online message to be considered a political ad, it has to have a placement cost, paid by the political actor to the platform to purchase a “sponsored” or “boosted” ad. In practice, platforms technically distinguish whether the online message is sponsored, boosted, or otherwise made available via their own advertising systems — rather than natively posted by a user who paid no fee to the platform. Ads can’t make it into the registry unless they are tagged that way. But people can pay to promote political online messages outside those systems, for example, by hiring social media influencers.

Our changed media environment

In the broadcast era, placement of messages and promotion of messages were largely one and the same. A political party might choose to pay a placement cost to have a TV advertisement played at a particular time of day. The placement of that advertisement would be on a particular network at a particular time. Paying for that placement disseminates the political party’s messages to whichever viewers that network has at that time.

A social media equivalent is using a platform’s official advertising system to place an advertisement. Some things are different, of course. Compared to a television spot, social media advertising systems offer more nuanced targeting options and it is possible to make many more versions of each advertisement and tailor it to those specific audiences. This is where the new transparency measures in online ad registries come in handy. But the general process is the same: the party would pay a placement cost to have their advertisement sent out to some set of viewers.

But, using the official advertising systems is only one of multiple ways to place and promote content online. Plus placing and promoting content are not necessarily done in the same step on social media.

Campaigns could pay a marketing agency to increase likes on a post the campaign made for free, improving its prioritization in social media feeds. This is a paid strategy to get a message out to a wider audience but does not have the traditional placement cost and can be hard to track, raising concerns about how to ensure adequate transparency. Some agencies use botnets and trollfarms to do this, but real people are the preferred route as platforms have begun clamping down on what Meta calls “inauthentic coordinated behaviour.”

And so campaigns are getting creative. Social media influencers are a new way to circumvent political ad registries, skirt spending limits, and get by platforms’ terms of service.

While influencers may be compelled to disclose payment on some platforms such as Instagram, it is not the case on all of them. Regardless, it can be difficult for a user to know when an influencer they follow has received compensation. What’s more, compensation may not have been offered directly for a particular post, making it hard to trace and hard to report. Influencers often receive sample products, gifts, and expenses-paid trips as informal compensation for reviewing or talking about a given organization or topic. It is currently unclear how similar activities would be treated for political parties and third parties aiming to engage influencers in their communication strategies. Influencers may not even know they should be reporting income and gifts, let alone know how to report or understand the implications of not doing so.

If the goal of ad registries is to collect all paid political speech on platforms, there is a concerning loophole with influencer marketing. Indeed, social media influencers can be dissemination and promotion agents for paid political content.

One of the trickiest parts of dealing with social media influencers in politics is that they may genuinely want to express political opinions during campaigns independent of compensation. They may see themselves as activists or simply engaged citizens who happen to have an online following. Their content could look a lot like paid promotion without in fact being paid or compensated in any way. This makes deciding on whether regulations should be updated, whether platforms should modify their community standards, and what transparency standards social media influencers should be held to be very challenging. We need to have these discussions now, ahead of the next elections.

 

la version française

Les lois électorales du Canada sont trop peu préparées au marketing d’influence

Le marketing d’influence sur les médias sociaux, c’est-à-dire la rémunération d’influenceur·euse·s dans le but de diffuser certains messages, est une pratique qui gagne en popularité dans les campagnes politiques à travers le monde. Au Canada, les influenceur·euse·s des médias sociaux ont été appelé·e·s à prêter leur voix pendant la pandémie de COVID-19 et ont été rémunéré·e·s dans le cadre de stratégies gouvernementales de marketing. Aux États-Unis, le marketing d’influence est de plus en plus populaire parmi les principaux partis politiques et groupes de revendication, jouant ainsi un rôle central dans leur stratégie de communication. Aux États-Unis, aux Philippines, en Inde, au Brésil et au Nigeria, pour ne citer que ces endroits, les influenceur·euse·s des médias sociaux sont utilisé·e·s stratégiquement dans des campagnes de désinformation pour répandre la haine et le harcèlement, ainsi que pour influencer secrètement les résultats des élections.

Leur attrait est évident : les influenceur·euse·s ont généralement une connaissance approfondie de leurs abonné·e·s et de leurs fans, et ces dernier·ère·s ont le sentiment d’être en relation sociale avec les influenceur·euse·s sans même nécessairement les avoir rencontré·e·s. Ainsi, les influenceur·euse·s ont la capacité d’adapter des messages à leur public. Ce dernier part du principe que les influenceur·euse·s sont considéré·e·s comme une source plus fiable puisque leurs abonné·e·s et leurs fans ont fait le choix de recevoir des messages de leur part.

Toutefois, le recours aux influenceur·euse·s peut également permettre d’échapper à certaines lois, comme les mesures en matière de transparence et les limites de dépenses électorales. Il est aussi possible de distancer une campagne d’un message en particulier, ce qui pourrait être souhaitable pour attaquer des opposant·e·s, ou encore diffuser des propos véhiculant de la désinformation, de la haine ou du harcèlement.

Les lois électorales fédérales du Canada ne sont pas préparées à la suite des choses. Les influenceur·euse·s des médias sociaux sont de plus en plus intégré·e·s aux campagnes de communication. Nous devons amorcer une discussion publique sur l’approche de définition et de catégorisation des influenceur·euse·s sur les médias sociaux et de leurs rôles. Nous devons ensuite nous assurer que les failles sont éliminées afin que les influenceur·euse·s puissent s’engager de manière productive dans les campagnes.

Les registres de publicités et les frais de placement

La Loi sur la modernisation des élections est entrée en vigueur avant les élections fédérales de 2019 au Canada. Dans le cadre d’un ensemble plus vaste de changements, il est exigé de toutes les plateformes sur Internet avec un nombre minimum de visiteur·trice·s uniques par mois de s’inscrire à un registre de publicités numériques. En 2019, Google et YouTube ont choisi de ne pas autoriser les publicités électorales. Facebook, pour sa part, a choisi d’en afficher et a créé sa Bibliothèque des publicités. Un certain nombre d’organisations journalistiques ont également atteint le seuil réglementaire et ont créé des registres de publicités.

Les registres de publicités comprennent les publicités « partisanes » et « électorales », une copie de la publicité affichée et des informations sur les personnes qui ont payé pour sa diffusion. Certaines plateformes choisissent d’ajouter des informations sur le public et le coût de l’annonce. Ces registres représentent une amélioration nécessaire de la transparence en matière de publicités politiques et de microciblage sur les médias sociaux.

Toutefois, les registres de publicités comptent sur le fait que les annonces ont été placées à l’aide du système de publicité des plateformes. Les diverses manières de contourner ces systèmes ne sont pas prises en compte. Cela s’explique en partie par le fait que nos définitions des notions de publicité politique et de promotion payée sont fondées sur une compréhension du contexte médiatique antérieur à l’avènement des médias sociaux.

Les « frais de placement » représentent un concept clé de la conception des lois électorales actuelles. Pour qu’un message en ligne soit considéré comme une annonce politique, il doit être assorti de frais de placement, payés à la plateforme par l’acteur·trice politique, visant l’achat d’une annonce « commanditée » ou « mise en avant ». Dans la pratique, pour se conformer aux exigences législatives, les plateformes doivent faire la distinction entre un message en ligne commandité, mis en avant ou diffusé par le biais de leurs propres systèmes publicitaires, et les messages publiés organiquement par un·e utilisateur·trice qui n’a pas payé de frais à la plateforme. Les publicités ne seront pas incluses au registre à moins d’être ainsi classées. Toutefois, il est possible de payer pour promouvoir des messages politiques en ligne en dehors de ces systèmes, par exemple, en rémunérant des influenceur·euse·s sur les médias sociaux.

Changements au sein de notre environnement multimédia

À l’ère de la radiodiffusion, le placement et la promotion de messages étaient des notions en grande partie identiques. Un parti politique pouvait choisir de payer des frais de placement pour diffuser une publicité à la télévision à un certain moment de la journée. Le placement de cette publicité assurait sa diffusion sur un réseau précis à une heure précise. Les frais de placement permettent la communication des messages du parti politique aux téléspectateur·trice·s d’un réseau donné à un moment défini.

Dans le monde des médias sociaux, l’équivalent serait d’utiliser le système officiel de publicité d’une plateforme pour le placement d’une annonce. Quelques aspects diffèrent, évidemment. Par rapport à un placement sur un réseau de télévision, les systèmes de publicité sur les médias sociaux offrent des options de ciblage plus nuancées. De plus, il est possible de créer un grand nombre de versions pour chaque publicité, adaptées à certains publics en particulier. C’est là que les nouvelles mesures de transparence dans les registres de publicités en ligne sont utiles. Par contre, le processus général reste le même : le parti paie des frais de placement pour que sa publicité soit diffusée à un public défini.

L’utilisation des systèmes de publicité officiels ne demeure toutefois qu’une approche de placement et de promotion sur le Web parmi tant d’autres. De plus le placement et la promotion du contenu ne correspondent pas nécessairement à la même étape dans le domaine des médias sociaux.

Dans le cadre de certaines campagnes, il est possible de payer une agence de marketing pour augmenter les interactions « J’aime » sur une publication non payante, ce qui la met en avant dans les fils d’actualité des médias sociaux. Il s’agit d’une stratégie payante qui permet de transmettre un message à un public élargi, mais qui diffère des frais de placement traditionnels. Ce genre de coût peut être difficile à suivre, ce qui soulève des inquiétudes quant à la manière d’assurer une transparence adéquate. Certaines agences ont recours à des « réseaux zombies » et des « usines à troll », mais l’usage tend toujours à privilégier l’emploi de vrai·e·s utilisateur·trice·s, puisque les plateformes ont commencé à serrer la vis aux organisations qui ont recours à ce que Meta nomme des « comportements coordonnés inauthentiques ».

Les organisateur·trice·s de campagnes doivent donc redoubler de créativité. Le recours aux influenceur·euse·s des médias sociaux constitue une nouvelle façon de contourner les registres de publicités politiques, les limites de dépenses et les conditions de service des plateformes.

Sur certaines plateformes, comme Instagram, les influenceur·euse·s sont contraint·e·s de divulguer les paiements qui leur sont versés, mais ce n’est pas le cas partout. Quoi qu’il en soit, il peut être difficile pour les abonné·e·s d’un·e influenceur·euse de déterminer si une rémunération a été versée. De plus, une compensation pourrait ne pas avoir été octroyée pour une publication en particulier, ce qui complique le traçage et le signalement. Les influenceur·euse·s reçoivent souvent des échantillons de produits, des cadeaux et des voyages toutes dépenses payées comme rémunération informelle en échange de commentaires ou de discussions au sujet d’une organisation ou d’un sujet donné. Il est actuellement difficile de déterminer le traitement réservé à des activités similaires pour les partis politiques et les tiers qui souhaitent impliquer des influenceur·euse·s dans leurs stratégies de communication. Ces dernier·ère·s peuvent même ignorer s’ils sont tenu·e·s de déclarer certains revenus ou cadeaux, voire même ignorer les mécanismes de signalement ou les implications de la non-conformité.

Si les registres de publicités visent le regroupement de l’ensemble du discours publicitaire politique payant sur les plateformes, le marketing d’influence constitue une faille à ce système. En effet, les influenceur·euse·s des médias sociaux peuvent être des agent·e·s de diffusion et de promotion de contenu politique payant.

L’un des aspects les plus délicats du recours aux influenceur·euse·s des médias sociaux en politique est que ces personnes pourraient avoir la volonté sincère d’exprimer leurs opinions politiques lors des campagnes, même sans compensation. Certain·e·s influenceur·euse·s peuvent se voir comme des activistes ou simplement des citoyen·ne·s engagé·e·s qui, par hasard, ont également un grand nombre d’abonné·e·s. Leur contenu pourrait beaucoup ressembler à une annonce payante sans qu’aucune somme ne leur soit versée. Il est donc très difficile de décider si la réglementation doit être mise à jour, si les plateformes doivent modifier leurs règles d’utilisation et quelles normes de transparence devraient s’appliquer aux influenceur·euse·s sur les médias sociaux. Nous devons discuter de ces enjeux maintenant, avant les prochaines élections.

A Coherent Domestic and Foreign Digital Policy for Canada?

Une politique numérique nationale et étrangère cohérente pour le Canada?

by Vivek Krishnamurthy

La version française est suivi.

Scroll down for the French translation.

Introduction

The laissez-faire era of technology regulation is now well and truly over. Governments around the world are racing to regulate technology companies large and small, as well as the impacts of the companies’ products, services, and business models on the societies they govern.

Canada is no stranger to these global trends. There are currently three significant bills before the Canadian Parliament that seek to regulate the technology sector and its impacts (C-11, C-18, and C-27), with more legislation under development. As this policy brief will show, however, there are significant tensions emerging between key elements of Canada’s domestic regulatory framework for the technology sector, and Canada’s stated foreign policy objectives in the digital sphere.

This brief will begin by exploring some of Canada’s key foreign policy objectives in the digital sphere, before describing how they are in tension with how key provisions of Bills C-11 and C-18 have been drafted. I will conclude with some thoughts on how Canada can and should achieve greater coherence between the domestic and foreign aspects of digital policymaking.

Canada’s Digital Foreign Policy, Summarized

Canada has long been seen on the world stage as a powerful advocate for human rights. While some observers have questioned whether Canada currently has a coherent foreign policy in place, Canada does have a long track record of international advocacy in support of a global, free, open, interoperable, secure, and reliable Internet. The strength of Canada’s commitment can be seen in the leadership role Canada has played in the Freedom Online Coalition (FOC)—a multilateral coalition of 36 like-minded governments that work together to advance Internet freedom worldwide. As the chair of the FOC in 2022, Canada led the drafting of the “Ottawa Agenda,” which sets forth 11 key principles for FOC member-states to pursue both at home and abroad. Three of the principles are especially relevant here:

1.      A commitment to “inclusive and open multi-stakeholder governance of digital technologies, including the Internet, and to sustained dialogue with external stakeholders to share knowledge and expertise…” (Principle B)

2.      A pledge to “advocate for a global, free, open, interoperable, secure and reliable Internet, to resist Internet fragmentation and promote accountable, inclusive, and responsive democratic societies…” (Principle D); and

3.      An undertaking to “[l]ead by example in upholding our commitments as members of the Coalition to respect our human rights obligations, as well as the principles of the rule of law, legitimate purpose, non-arbitrariness, [and] effective oversight, while calling for greater transparency and accountability within the private sector…” (Principle K).

Unfortunately, some provisions of Canada’s Bills C-11 and C-18 are difficult to reconcile with the key tenets of the FOC’s Ottawa Agenda.

Bill C-11 and the Regulation of Online Audiovisual Content

A first area of tension relates to Bill C-11’s treatment of online audiovisual content, especially user-generated content.

Bill C-11 is an act intended to reform and modernize Canada’s Broadcasting Act, which was last overhauled in the 1990s. Free expression scholars and courts around the world have long viewed the regulation of broadcasting as an exceptional area of law, where significant government interference with the right to free expression is justified on two grounds. The first is the scarcity of electromagnetic spectrum for conventional, over-the-air broadcasting, and the second is the “invasive” nature of broadcasting signals, which are “pushed” to radio and TV receivers located in the privacy of one’s home. Correspondingly, free expression law has long permitted greater restrictions on broadcasting than on other media of expression—such as print, film, or the online sphere.

Even so, following the government’s recent rejection of amendments adopted by the Senate, clauses 4.1 and 4.2 of Bill C-11 vest Canada’s broadcasting regulator—the CRTC—with the power to enact regulations that would apply to any audiovisual content hosted by a social media service that “directly or indirectly generates revenues.” The effect of these provisions is to empower the CRTC to regulate all audiovisual content hosted on social media platforms pursuant to its statutory authority. This is so because all content hosted by social media platforms indirectly generate revenues by increasing user engagement with their services, which is the foundation upon which their business models are built.

Regardless of the rationale for rejecting the Senate amendments, legislation that empowers a government body to enact regulations based on broadcasting law that could apply to all audiovisual content hosted by social media platforms is problematic from a free expression perspective. Under applicable international human rights law, legal restrictions on the right to free expression are valid only if they are intended to advance one of a small number of enumerated purposes, and then only if they are necessary and proportionate to achieving those purposes. Correspondingly, a broad grant of power to a regulator that encompasses all online audiovisual content is not consistent with Canada’s “human rights obligations, as well as the principles of the rule of law, legitimate purpose, [and] non-arbitrariness” emphasized in the FOC’s Ottawa Agenda.

Bill C-18 and the Future of the Internet

The text of Canada’s proposed Bill C-18 and recent developments in the House of Commons committee responsible for this proposed legislation exhibit further tensions between Canada’s digital foreign policy vision and its current approach to domestic legislation. While Bill C-18’s policy objective of ensuring the financial viability of Canadian journalistic organizations is laudable, the means being used do not align well with Canada’s foreign policy vision for an open and interoperable internet.

Bill C-18, which is also known as the Online News Act, seeks to require online intermediaries—such as those that operate search engines and social media platforms— to financially compensate Canadian news organizations for (1) facilitating access to news content “by any means”—including indexing, aggregating, and ranking news content and (2) reproducing “any portion” of any news content on their services.

There are many problems with the proposed legislation that have been the subject of extensive analysis and commentary by a range of actors. For present purposes, what is most problematic about the legislation is its premise that the facilitation of access to Canadian news content by search engines and social media platforms should result in such platforms paying financial compensation to news publishers. This notion fundamentally challenges the possibility of a free, open, and interoperable internet, especially since facilitation of access is a vague and amorphous concept that sweeps in hyperlinks. Should facilitation of access to internet content “by any means” become conditional on payment to copyright holders, significant tears may begin to appear in the fabric of the World Wide Web—which is ultimately nothing more than a collection of hyperlinked hypertext webpages.

These problems are amplified by Bill C-18 making key limitations and exceptions to copyright—including fair dealingunavailable to online intermediaries for the purposes of the legislation. In Canada, fair dealing furnishes the legal basis that search engines rely upon to index and rank content and make search results intelligible to their users. Fair dealing is also key to ensuring that the restrictions on free expression that are inherent in the protection of copyright are compatible with the Charter. Restricting the ability of online platforms that are subject to Bill C-18 to rely upon copyright exceptions such as fair dealing in reproducing or facilitating access to news content is therefore problematic from a free expression perspective, and these measures further amplify the challenge the bill poses to an open and interoperable internet.

Conclusion

This policy brief highlights some of the emerging tensions between Canada’s powerful international advocacy for online freedom and its domestic approach to digital policymaking. Explaining these tensions and inconsistencies is beyond the scope of this brief, although it is notable that Canada could achieve policy coherence simply by using more precisely drafted legislation to achieve its domestic policy achieves. Regardless, it behooves Canada to pursue domestic technology policy initiatives that are consistent with its foreign policy vision for the internet if our government is to be taken seriously on the world stage on these issues.

la version française

Une politique numérique nationale et étrangère cohérente pour le Canada?

Introduction

L’ère de la non-intervention en matière de réglementation de la sphère technologique est bel et bien révolue. Les gouvernements du monde entier s’empressent de réglementer les entreprises du secteur des technologies, grandes et petites, ainsi que les effets des produits, services et modèles d’affaires de ces entreprises sur les sociétés qu’ils gouvernent.

Le Canada ne fait pas exception à ces tendances mondiales. Il y a actuellement trois projets de loi importants devant le Parlement canadien qui visent à réglementer le secteur des technologies et ses répercussions : les projets de loi C-11, C-18 et C-27. Par ailleurs, d’autres projets de loi sont en cours d’élaboration. Toutefois, comme nous tenterons de le démontrer dans le présent exposé, il existe d’importantes tensions entre les éléments clés du cadre réglementaire du Canada pour le secteur de la technologie et les objectifs en matière de politique extérieure énoncés par le pays dans la sphère numérique.

Tout d’abord, il sera question de certains des principaux objectifs de la politique étrangère du Canada dans le domaine numérique. Nous décrirons ensuite les tensions entre ces objectifs et le libellé de dispositions clés des projets de loi C-11 et C-18. Nous conclurons par quelques réflexions sur la manière dont le Canada peut et doit parvenir à une plus grande cohérence entre les aspects nationaux et extérieurs de l’élaboration de politiques dans la sphère numérique.

Résumé de la politique étrangère du Canada en matière de numérique

À l’international, le Canada est depuis longtemps considéré comme un ardent défenseur des droits de la personne. Même si certain·e·s observateur·rice·s remettent en question la cohérence de la politique étrangère au pays, le Canada jouit d’une réputation de longue date à l’international en matière de revendications en faveur d’un Internet mondial, libre, ouvert, interopérable, sûr et fiable. La force de l’engagement du Canada se manifeste dans le rôle de chef de file qu’il a joué au sein de la Freedom Online Coalition (FOC, littéralement « Coalition pour la liberté en ligne »), une coalition multilatérale de 36 gouvernements aux vues similaires qui travaillent ensemble pour faire progresser la liberté au sein d’Internet dans le monde entier. À titre de président de la FOC en 2022, le Canada a dirigé la rédaction du Programme d’Ottawa, un document qui énonce 11 principes clés que les États membres de la FOC devraient appliquer en matière de politique nationale et extérieure. Trois des principes sont particulièrement pertinents en ce qui nous concerne :

1.      Un engagement en faveur d’une « gouvernance inclusive, ouverte et multipartite des technologies numériques, y compris Internet, et d’un dialogue continu avec les parties prenantes externes en ce qui a trait à la communication des connaissances et de l’expertise… » (Principe B);

2.      Un engagement à « plaider en faveur d’un Internet mondial, libre, ouvert, interopérable, sécurisé et fiable, à résister à la fragmentation d’Internet et à œuvrer en faveur de sociétés démocratiques responsables, inclusives et réactives… » (Principe D);

3.      Un engagement à « mener par l’exemple en défendant nos engagements en tant que membres de la Coalition et à respecter nos obligations en matière de droits de la personne, ainsi que les principes de la primauté du droit, du but légitime, du non arbitraire et d’une surveillance efficace, tout en appelant au renforcement de la transparence et de la responsabilité au sein du secteur privé… » (Principe K).

Malheureusement, certaines dispositions des projets de loi C-11 et C-18 du Canada sont difficiles à concilier avec les principes clés du Programme d’Ottawa de la FOC.

Projet de loi C-11 et réglementation du contenu audiovisuel en ligne

Un premier domaine de tension concerne le traitement du contenu audiovisuel en ligne dans le cadre du projet de loi C-11, en particulier le contenu généré par les utilisateur·rice·s.

Le projet de loi C-11 vise à réformer et à moderniser la Loi sur la radiodiffusion du Canada, qui a été révisée pour la dernière fois dans les années 1990. Les universitaires et les tribunaux du monde entier spécialisé·e·s dans le domaine de la liberté d’expression considèrent depuis longtemps la réglementation de la radiodiffusion comme un champ juridique exceptionnel, dans lequel une interférence considérable des pouvoirs publics avec les droits à la liberté d’expression ne peut être justifiée que pour deux raisons. La première est la rareté du spectre électromagnétique pour la radiodiffusion conventionnelle en direct, et la deuxième est la nature « invasive » des signaux de radiodiffusion, qui sont « poussés » vers les récepteurs de radio et de télévision situés des résidences privées des citoyen·ne·s. Par conséquent, la législation en matière de liberté d’expression autorise depuis longtemps des restrictions plus importantes sur la radiodiffusion que sur d’autres médias d’expression, comme la presse écrite, le cinéma ou Internet.

Malgré tout, à la suite du récent rejet par le gouvernement des amendements du Sénat, les articles 4.1 et 4.2 du projet de loi C-11 conféraient à l’organisme de réglementation de la radiodiffusion du Canada, le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC), le pouvoir d’adopter des règlements qui s’appliqueraient à tout contenu audiovisuel hébergé par un service de réseau social qui « génère des revenus de façon directe ou indirecte ». Ces dispositions ont pour effet de donner au CRTC le pouvoir de réglementer tout le contenu audiovisuel hébergé sur les plateformes de réseaux sociaux conformément à son autorité statutaire. En effet, l’ensemble du contenu hébergé par les plateformes de réseaux sociaux génère indirectement des revenus par l’augmentation de la participation des utilisateur·trice·s, ce qui est la base sur laquelle repose leur modèle d’affaires.

Quelle que soit la justification du rejet des amendements du Sénat, une législation qui autorise un organisme gouvernemental à adopter des règlements en vertu d’une loi sur la radiodiffusion qui pourrait s’appliquer à l’ensemble du contenu audiovisuel hébergé par les plateformes de réseaux sociaux est problématique du point de vue de la liberté d’expression. En vertu du droit international applicable en matière de droits de la personne, les restrictions juridiques au droit à la liberté d’expression ne sont valables que si celles-ci sont destinées à faire progresser un nombre restreint de buts précis. De plus, ces restrictions doivent être nécessaires et proportionnées à l’accomplissement de ces objectifs. De même, l’octroi à un organisme de réglementation de vastes pouvoirs qui englobent l’ensemble du contenu audiovisuel en ligne n’est pas conforme aux « obligations en matière de droits de la personne », ainsi qu’aux « principes de la primauté du droit, du but légitime [et] du non arbitraire » soulignés dans le Programme d’Ottawa de la FOC.

Le projet de loi C-18 et l’avenir d’Internet

Le texte du projet de loi C-18 proposé par le Canada et les évènements récents au sein du comité de la Chambre des communes responsable de ce projet de loi sont le signe que les tensions montent entre la vision du numérique qu’expose le Canada dans sa politique étrangère et son approche actuelle vis-à-vis de sa législation intérieure. L’objectif stratégique du projet de loi C-18 consistant à assurer la viabilité financière des organisations journalistiques canadiennes est louable, mais les moyens employés présentent certaines contradictions avec la vision du Canada en matière de politique étrangère soutenant l’ouverture et l’interopérabilité d’Internet.

Le projet de loi C-18, également connu sous le nom de Loi sur les nouvelles en ligne, vise à exiger des intermédiaires Web, comme les entreprises exploitant des moteurs de recherche ou des plateformes de réseaux sociaux, d’octroyer une compensation financière aux organisations journalistiques du Canada dans les situations suivantes : (1) la facilitation de l’accès aux nouvelles « par tout moyen », y compris un répertoire, une agrégation ou un classement du contenu journalistique; (2) la reproduction « en tout ou en partie » de contenu d’actualité sur leurs services.

La législation proposée pose de nombreux problèmes qui ont fait l’objet d’analyses et de commentaires approfondis de la part d’une série d’acteur·rice·s. En l’état actuel des choses, ce qui est le plus problématique dans cette législation, c’est qu’elle part du principe que la facilitation de l’accès au contenu de nouvelles canadiennes par les moteurs de recherche et les plateformes de réseaux sociaux devrait entraîner le versement d’une compensation financière par ces entreprises numériques aux organisations d’édition de nouvelles. Cette notion constitue une remise en question fondamentale de la possibilité d’accès à un Internet libre, ouvert et interopérable, en particulier parce que le concept de facilitation de l’accès est vague et difficile à délimiter, englobant même les hyperliens. Si la facilitation de l’accès au contenu Web « par tout moyen » devient conditionnelle à l’octroi d’un paiement aux détenteur·rice·s de droits d’auteur, cela pourrait provoquer d’importantes fissures dans le tissu du Web, qui n’est en fin de compte rien de plus qu’un ensemble de pages Web hypertextes hyperliées.

Ces problèmes sont amplifiés par le fait que le projet de loi C-18 rend les principales limitations et exceptions au droit d’auteur, y compris l’utilisation équitable, inaccessible aux intermédiaires Web aux fins de la législation. Au Canada, l’utilisation équitable fournit la base juridique sur laquelle les moteurs de recherche s’appuient pour indexer et classer le contenu et rendre les résultats de recherche intelligibles pour leurs utilisateur·rice·s. Elle est également essentielle pour garantir que les restrictions à la liberté d’expression qui sont inhérentes à la protection du droit d’auteur sont compatibles avec la Charte canadienne des droits et libertés. La restriction de la capacité des plateformes en ligne visées par le projet de loi C-18 à invoquer les exceptions au droit d’auteur, comme l’utilisation équitable, pour reproduire ou faciliter l’accès à du contenu de nouvelles est donc problématique du point de vue de la liberté d’expression, et ces mesures ne font qu’amplifier les difficultés posées par le projet de loi à l’ouverture et à l’interopérabilité de l’Internet.

Conclusion

Dans le présent exposé de politique, j’ai mis en lumière certaines tensions émergentes entre la puissante défense de la liberté sur Internet par le Canada à l’international et son approche intérieure dans le cadre de l’élaboration de politiques relatives au domaine numérique. L’explication de ces tensions et de ces incohérences dépasse le cadre du présent exposé, même s’il est à noter que le Canada pourrait parvenir à une cohérence stratégique simplement au moyen d’une législation rédigée avec plus de précision en vue de la réalisation de ses objectifs de politique intérieure. Néanmoins, si notre gouvernement veut être pris au sérieux sur la scène internationale par rapport à ces enjeux, il incombe au Canada de poursuivre des initiatives nationales en matière de politiques liées aux technologies qui soient cohérentes avec la vision de l’Internet qu’il énonce dans sa politique extérieure.

The Diligent Platform and “Lawful but Awful” Expression

La diligence des plateformes et l’expression « légale, mais préjudiciable »

by Emily Laidlaw

La version française est suivi.

Scroll down for the French translation.

 

An online safety bill is expected to be introduced by the Government of Canada in the coming months. Regardless of what is proposed, this is just the beginning. The coming decade will be a period of tremendous legal friction as online safety laws are fine-tuned by courts, regulators, and legislators. Even if no law is passed, we will still have the same question of what precisely counts as a responsible platform to a legal standard. Several legal conundrums keep me up at night, and one more than all the others:

Can and should a risk management model target “lawful but awful” expression?

All indications from Heritage Canada are that the legislation will be modelled on what can be described as risk management, duty of care or due diligence models. Under these legal frameworks, the focus is on the systemic risks of harm of platforms, such as the recommender or other algorithmic systems, content moderation, advertising and data practices. These platforms’ services are treated as issues of product safety. The obligation of the company, therefore, is to assess the risks of harm of their services at the front end, continually monitor the risks, and action any findings. Platforms are held accountable through a mix of mandatory transparency reporting and regulatory oversight. This approach is observable in the United Kingdom’s Online Safety Bill (OSB), the European Union’s (EU) Digital Services Act (DSA), and currently explored in Canada as a duty to act responsibly. All of these models, in essence, require that platforms implement systems of reasonable decision-making.

I have advocated for this model, but the analogy of product safety can only take us so far. Building safer cars is not the same as building safer spaces for discourse, because of the intersection with fundamental rights. The friction is most obvious when examining systems and content at the edges of legality.

When I discuss online safety legislation, most people mention mis- and dis-information, bullying, mob attacks, hateful content and similar. All this content is generally lawful but harmful. Can and should online safety legislation address this type of harm? This was an enormous point of controversy in the UK concerning the OSB and resulted in most such provisions removed from the bill. Still, there is an important conversation to be had about what platforms can and should be responsible within a constitutional framework.

For example, the 2022 coroner’s inquiry in the UK into the suicide of a teen girl, Molly Russell, revealed that the recommender systems of both Pinterest and Instagram were pushing content on self-harm, suicide, and depression. A risk management model that only focuses on illegal expression would not demand due diligence by platforms in this sphere. However, a duty to protect the special interests of children and assess the risks of their recommender system would capture what caused harm to Molly Russell. Similarly, most mis- and dis-information is perfectly legal even if it might shape decisions linked with illegality. The EU’s DSA creatively circumvents the question of lawful but awful and disinformation by imposing due diligence obligations on very large online platforms (VLOPs) to manage their systemic risks without getting into the weeds of individual pieces of content or their legality.

Two legal challenges are key. First, the starting position for targeting any such content – even at a systemic level – is that a legal system of free expression protects unpopular, distasteful, and disturbing expression – and it should, because the foundations of democracy, discovery, and truth inherent in expression are central to society. However, such a right must be reinforced and balanced with other constitutional rights, like the rights to privacy and equality, the Crown’s fiduciary duties to Indigenous people, and the unique infrastructure of the internet that changes the social conditions of speech.

For example, there is a high risk of unintended consequences. Well-meaning content moderation systems have been abused to target racialized and other marginalized groups, algorithmic systems built on garbage inputs produce biased outputs, and so on. The answer is not more freedom of expression or more regulation, but rather something much more nuanced. For example, there should be no obligation to remove lawful but awful expression, as this would be an extraordinary interference with the right to freedom of expression. However, design features such as user empowerment tools to mute or curate content or presenting alternative news sources alongside flagged misinformation, may be justifiable, taking lessons perhaps from cases on time, place, and manner restrictions and advertising. Transparency obligations could include reporting on risk management measures taken to protect children and fundamental rights.

Second, there is a separate issue about whether these types of due diligence models even raise rights issues at all. A risk management model does not tell a company what to do, simply to do something and be accountable for that process. Therefore, it is unlikely that a court would view a social media company as undertaking governmental action and directly bound by the Charter of Rights and Freedoms for their public functions.

However, the decisions that flow from that risk assessment can implicate rights. The more specific the legislation, the greater the risk. For example, legislation that mandates demotion and promotion of content on recommender systems carries different rights risks. There is generally no right to an audience, and therefore demotion of content may be less problematic in law, although it is a grey area. However, mandating that content is amplified might violate the rights of the platform’s freedom of expression as a form of compelled speech.

Similar issues are created by mandatory warnings/flags. Freedom of expression includes the right to say nothing or not to be forced to say certain things. The rights risk is greater in the US, where the compelled speech doctrine has been heavily litigated. In Canada, the proportionality analysis in s. 1 of the Charter weighs in favour of the constitutionality of warning labels, but it is always context-driven, and we have few cases to draw from (here and here).

 

There is good reason for the Government to start with a narrow list of illegal expression. If it follows in the footsteps of the EU, UK, and Australia, a new regulatory scheme will be born alongside all the growing pains that come along with it. But let’s be clear: a vast swath of harms will remain unregulated, meaning we will continue to depend on corporate self-governance and selective transparency, if at all. For many types of harm, this is exactly as it should be if we are committed to freedom of expression. For others, the harms are too big to ignore. The next 10 years will be filled with debates about this penumbral space of expression, harms and algorithms.


la version française

La diligence des plateformes et l’expression « légale, mais préjudiciable »

Le gouvernement du Canada devrait présenter un projet de loi relatif à la sécurité en ligne au cours des prochains mois. Quelle que soit la proposition, il ne s’agit que du début. La prochaine décennie sera une période de frictions juridiques considérables, à mesure que les lois en matière de sécurité en ligne seront affinées par les tribunaux, les organismes de réglementation et les législateur·trice·s. Même si aucune loi n’est adoptée, nous serons toujours confronté·e·s à la même question : qu’est-ce qu’une plateforme responsable au sens juridique? Plusieurs casse-têtes juridiques me tiennent éveillée la nuit, mais il y en a un qui me tracasse tout particulièrement :

un modèle de gestion des risques peut-il et doit-il cibler l’expression « légale, mais préjudiciable »?

Tout indique du côté de Patrimoine canadien que la législation s’inspirera de ce que l’on peut qualifier de modèles de gestion des risques, d’obligation de diligence ou de diligence raisonnable. Dans le cadre de ces cadres juridiques, l’accent est mis sur les risques systémiques de préjudice des plateformes, comme les systèmes de recommandation ou d’autres types d’algorithmes, la modération du contenu, la publicité et les pratiques en matière de données. On traite les services de ces plateformes comme s’il s’agissait d’une question de sécurité des produits. L’obligation de l’entreprise est donc d’évaluer les risques de préjudice que présentent ses services du côté des applications frontales, d’effectuer une surveillance continue des risques et d’agir en conséquence. Le mécanisme de responsabilisation des plateformes allie des obligations de production de rapports relatifs à la transparence et une surveillance réglementaire. On peut observer cette approche dans le Online Safety Bill du Royaume-Uni et le Règlement sur les services numériques[HP1]  de l’Union européenne. Le Canada explore également cette approche dans le cadre du devoir d’agir de manière responsable. Tous ces modèles, en substance, exigent que les plateformes mettent en œuvre des systèmes de prise de décision raisonnable.

Bien que j’aie préconisé ce modèle, l’analogie de la sécurité des produits a ses limites. Il y a une différence entre le fait de construire des voitures plus sécuritaires et la création d’espaces plus sûrs pour le discours, en raison de l’intersection avec des droits fondamentaux. La friction est d’autant plus évidente lorsqu’on examine les systèmes et le contenu aux confins de la sphère juridique.

Lorsque je discute de législation en matière de sécurité en ligne, la plupart des gens mentionnent la mésinformation, la désinformation, l’intimidation, les attaques de foules, le contenu haineux et d’autres types de préjudices. Le contenu de ce type est généralement légal, mais préjudiciable. La législation en matière de sécurité en ligne peut-elle et doit-elle traiter ce type de préjudice? Cette question a soulevé une énorme controverse au Royaume-Uni dans le contexte du Online Safety Bill. La plupart des dispositions allant dans ce sens ont été retirées du projet de loi. Il y a pourtant une discussion importante à tenir au sujet des responsabilités et des obligations des plateformes dans un cadre constitutionnel.

Par exemple, en 2022, au Royaume-Uni, l’enquête du coroner sur le suicide d’une jeune fille, Molly Russell, a révélé que les systèmes de recommandation de Pinterest et d’Instagram mettaient en avant du contenu sur l’automutilation, le suicide et la dépression. Un modèle de gestion des risques qui se concentre uniquement sur l’expression illégale n’exigerait pas de diligence raisonnable de la part des plateformes dans ce domaine. Toutefois, le devoir de protéger les intérêts spéciaux des enfants et d’évaluer les risques associés au système qui leur recommande du contenu permettrait de cerner ce qui a été préjudiciable à Molly Russel. De même, la mésinformation et la désinformation sont généralement légales, même si elles pourraient inciter certaines personnes à prendre des décisions liées à l’illégalité. Le Règlement sur les services numériques de l’Union européenne contourne de manière créative la question de l’expression légale, mais préjudiciable et de la désinformation en imposant des obligations de diligence raisonnable aux très grandes plateformes en ligne dans le but de gérer les risques systémiques qu’elles posent sans entrer dans le sujet épineux du contenu pris isolément ou de sa légalité.

Du point de vue juridique, il y a deux défis de taille. Tout d’abord, le point de départ pour cibler ce type de contenu, même à un niveau systémique, est qu’un système juridique fondé sur la liberté d’expression protège l’expression impopulaire, déplaisante et dérangeante, et cela devrait être le cas, car les fondements de la démocratie, de la découverte et de la vérité inhérents à l’expression occupent une place centrale dans notre société. Toutefois, un tel droit doit être renforcé et équilibré par d’autres droits constitutionnels, comme le droit à la vie privée et à l’égalité, les obligations fiduciaires de la Couronne envers les peuples autochtones et l’infrastructure unique d’Internet qui modifie les conditions sociales de la parole.

Par exemple, il existe un risque élevé de conséquences imprévues. Les systèmes de modération de contenu, malgré les bonnes intentions des personnes qui les ont mis en place, ont été utilisés abusivement pour cibler des groupes de personnes racisées et d’autres groupes de personnes marginalisées. Les systèmes algorithmiques basés sur des intrants indésirables produisent des extrants biaisés, et ainsi de suite. La réponse ne consiste pas à étendre la liberté d’expression ou la réglementation. Une approche beaucoup plus nuancée est nécessaire. Par exemple, il ne devrait pas y avoir d’obligation de supprimer le contenu s’apparentant à une expression légale, mais préjudiciable, car cela constituerait une interférence extraordinaire avec le droit à la liberté d’expression. Toutefois, certaines caractéristiques de conception pourraient être justifiables, notamment les fonctions redonnant un certain pouvoir aux utilisateur·trice·s, comme les outils de mise en sourdine, de filtrage du contenu ou de présentation d’autres sources d’actualité aux côtés du contenu signalé comme mésinformation. Il pourrait être utile de tirer des leçons des jugements portant sur les restrictions relatives aux heures, au lieu ou au mode d’expression et sur la publicité. Les obligations en matière de transparence pourraient comprendre la présentation de rapports sur les mesures de gestion des risques adoptées en vue de protéger les enfants et les droits fondamentaux.

Deuxièmement, il y a une question distincte qui se pose : ces types de modèles fondés sur la diligence raisonnable soulèvent-ils même des questions relatives aux droits de la personne? Dans le cadre d’un modèle fondé sur la gestion des risques, on ne dit pas aux entreprises ce qu’elles doivent faire, simplement que quelque chose doit être fait et qu’elles doivent être responsables de ce processus. Par conséquent, il est peu probable qu’un tribunal considère qu’une entreprise de médias sociaux entreprend une action gouvernementale et qu’elle est directement liée par la Charte canadienne des droits et libertés pour ses fonctions publiques.

Toutefois, les décisions qui découlent de cette évaluation des risques peuvent impliquer des droits. Plus la législation est précise, plus le risque est grand. Par exemple, les risques en matière de droits sont différents selon qu’une éventuelle législation exige qu’on réduise ou qu’on augmente l’importance d’un contenu dans le système de recommandation. On s’entend généralement sur le fait qu’il n’existe pas de droit à un public, et par conséquent, la réduction en importance d’un contenu pourrait être moins problématique du point de vue juridique, bien qu’il s’agisse d’une zone grise[HP2] . Cependant, si on exige qu’un contenu soit amplifié, cela pourrait constituer une violation des droits en matière de liberté d’expression de la plateforme, puisqu’il s’agirait d’un discours forcé.

Les exigences en matière d’avertissements et d’indicateurs posent des problèmes similaires. La liberté d’expression comprend le droit de ne rien dire ou de ne pas être obligé·e de dire certaines choses. Le risque en matière de droits est plus grand aux États-Unis, où la doctrine sur le discours forcé a fait l’objet de nombreux recours judiciaires. Au Canada, l’examen de la proportionnalité de l’article 1 de la Charte canadienne des droits et libertés pèse en faveur de la constitutionnalité des messages d’avertissement, mais cela dépend toujours du contexte et nous n’avons que peu d’exemples à notre disposition (ici et ici).

Il y a de bonnes raisons pour que le gouvernement commence par une liste restreinte relative à l’expression illégale. S’il suit les traces de l’Union européenne, du Royaume-Uni et de l’Australie, un nouveau système réglementaire verra le jour, accompagné des difficultés croissantes qui en découlent. Je veux toutefois être claire : une vaste série de préjudices resteront non réglementés, ce qui signifie que nous continuerons de dépendre de l’autogouvernance des entreprises et des pratiques sélectives, voire absentes, en matière de transparence. Pour de nombreux types de préjudices, il s’agit précisément de l’approche qu’on devrait employer en soutien à notre engagement envers la liberté d’expression. Dans d’autres cas, les méfaits sont trop importants pour être ignorés. Les 10 prochaines années seront remplies de débats sur le domaine des droits garantis en matière d’expression, de préjudices et d’algorithmes.

How Online Harms Regulation Empower Speech and Engagement

La réglementation sur les préjudices en ligne soutient la prise de parole et la participation

by Jonathon Penney

La version française est suivi.

Scroll down for the French translation.

 

One of the most common and forceful criticisms of the Government of Canada’s planned online harms legislation, including early iterations and opinions on more recent versions, is that such regulations will have a profound chilling effect on people’s rights and freedoms, particularly online speech, sharing, and engagement.

These criticisms are not surprising. Such concerns have often been raised to criticize, oppose, or challenge laws and regulations aimed at addressing online hate, cyberharassment, disinformation, and other online harms. Not only that, social media platforms have been highly successful in weaponizing such claims to advance an anti-regulatory agenda by framing law and regulation as a threat to users and innovation.

To be clear, chilling effects are real. I’ve documented and explored them in my own work, including the corrosive chill of mass surveillanceautomated legal enforcement, or online personal threats. But in the regulatory context, the evidence is far less clear. In fact, findings in recent empirical studies, including my own, demonstrate the contrary: regulations enacted to address online harms, like the forthcoming federal legislation, can actually have an empowering effect. They can encourage more speech and engagement online, especially by women and minorities. Any chill, by comparison, is negligible.

Chilling Effects and Our Permissive Legal Infrastructure

Concerns about chilling effects—that certain laws or regulations may “chill” or deter people from exercising their rights and freedoms—have long been central to debates about online content regulation and moderation.  Often corporate service providers and platforms have employed them, with great success, to curtail regulatory efforts and promote a broadly permissive legal and regulatory environment.

Perhaps the best example is Section 230 of the United States’ Communications Decency Act. This provides internet and social media platforms with near blanket legal immunity, shielding them from liability for user generated content and from lawsuits relating to how they moderate content. Section 230 is treated as a “sacred cow” by the U.S. technology industry. But it has been controversial as its broad legal protections now shelter powerful corporate platforms like Facebook, Google, and Twitter from legal accountability, while providing little incentive to address online abuse and other harms.

Chilling effect claims are a central reason for Section 230’s broad scope. The U.S. Fourth Circuit Court of Appeal’s famous 1997 decision in Zeran v America Online, which provided Section 230 with its broad interpretation, was premised on concerns about chilling effects. AOL had argued that without blanket immunity, online service providers (OSPs) would chill and suppress online speech to avoid liability. The court bought that anti-regulatory framing entirely, despite the fact that Section 230’s text, history, and original statutory intent did not justify Zeran’s blanket immunity interpretation.

Despite this, courts since have been largely unwilling to disturb Zeran’s broad Section 230 reading. Lawmakers have likewise failed to enact Section 230 reforms, despite years of advocacy by critics, fostering a deeply permissive legal and regulatory infrastructure for platforms.

Given that most of the powerful and popular social media platforms today are American, the country’s permissive regulatory approach, underpinned by Section 230, has impacted Canada. We have no general intermediary liability statute to police platforms. Both courts and governments have been very reticent to change that. When they have taken steps to do so, as the Trudeau government has experienced,  concerns, claims, and critiques about chilling effects resurface.

Despite their prevalence, there is little systematic study of such claims. Empirical research suggests that laws do not have the chilling effects that critics suggest. Furthermore, these criticisms also neglect other chilling effects—those caused online harm and abuse itself. Leading privacy and online abuse scholars like Danielle Citron have extensively documented how online harassment, bullying, and abuse have a profound chilling effect—a “totalizing and devastating impact”—that chills victims into silence, with disproportionate impact on women and minorities.

How Regulation Can Empower Speech

In one article published in 2019, Citron and I have explored how a cyber harassment law might impact what participants would be willing to say or do online. Using a study of nearly 1300 US-based adult internet users, we found that the cyber harassment law we tested would have a negligible chilling effect. Most participants indicated that the law would either have no impact or actually make them somewhat or much more likely to speak, share, and engage online. Not only that, we found the law would have an empowering effect—actually encouraging these activities, particularly for women.

We explained the findings using expressive law theory—a growing body of behavioural research that focuses on the expressive function of law—how it can shape behavioural norms by changing the social meaning of behaviour. When a law is passed, it provides a powerful symbolic or “informational” signal as to societal consensus or wider popular attitudes about social behavior, meaning how people should act and what behaviour is approved and disapproved. The law also provides information about the relative “risk” of certain behaviour. New online regulations raise the risk of abusing and reduce the risk of speaking and sharing online, especially for those most often victimized by online abuse. Over time, people internalize the attitudes and norms expressed by the law, altering broader behavioural norms.

Given that women are disproportionately targeted by online harassment and abuse, our findings made sense in terms of expressive law theory. A cyberharassment law designed to deter online harassment and abuse suffered by women had a positive expressive effect on women’s speech, sharing, and engagement online.

Our more forthcoming recent experimental research explored the impact of legal and platform measures aimed at protecting intimate privacy from abuse and invasion. We similarly found negligible evidence of any chilling effects. We did find that these privacy protective measures promoted trust, which is critical to fostering greater intimate sharing and expression, both online and off, especially among women and minority groups more likely to be victims of intimate privacy threats and similar abuse.

Our findings are consistent with other recent studies like computational social scientist Nathan Matias, who found that rules concerning online abuse in online communities helped curb online harassment and encouraged wider group participation.

Implications for Online Harms Law and Beyond

So, the critics are wrong. There is little evidence to support claims that online harms regulations—like Canada’s planned online harms laws—would chill speech and engagement online.

Our findings showed the very opposite: online harms legislation, if carefully tailored and communicated effectively, can support and encourage a wider diversity of speech and engagement, especially for those most often silenced due to being targeted for abuse—women and minorities. This is the empowering effect of online law and regulation.


la version française

La réglementation sur les préjudices en ligne soutient la prise de parole et la participation

L’une des critiques les plus fréquentes et avancées avec le plus de vigueur à l’égard des projets de loi du gouvernement du Canada en matière de préjudices en ligne, notamment en ce qui a trait aux premières itérations et aux opinions sur les versions plus récentes, c’est qu’une telle réglementation pourrait profondément dissuader la population d’exercer ses droits et les libertés, en particulier sur la prise de parole, la transmission de contenu et la participation sur le Web.

Ces critiques ne sont pas surprenantes. Ces préoccupations ont été fréquemment soulevées pour exprimer une critique, une opposition ou une contestation des lois et des règlements visant à lutter contre le discours haineux sur le Web, la cyberintimidation, la désinformation et d’autres préjudices en ligne. De plus, les plateformes de médias sociaux ont très bien réussi à instrumentaliser ces affirmations pour mettre de l’avant un programme d’opposition à ce type de réglementation, en présentant la législation et la réglementation en matière de préjudices sur le Web comme une menace pour les utilisateur·trice·s et l’innovation.

Pour être clair, on observe effectivement des effets dissuasifs. Je les ai documentés et explorés dans mon propre travail, y compris la profonde inhibition occasionnée par la surveillance de masseles systèmes automatisés d’application de la loi, ou les menaces personnelles en ligne. Toutefois, pour ce qui est des effets du contexte réglementaire, les données sont beaucoup moins probantes. Effectivement, les résultats de récentes études empiriques, y compris la mienne, démontrent que le contraire est vrai : les règlements adoptés pour lutter contre les préjudices en ligne, comme la législation fédérale à venir, peuvent en fait produire un effet favorable à l’expression. Ils peuvent encourager la prise de parole et la participation en ligne, en particulier par les femmes et les personnes issues d’une minorité. En comparaison, les effets dissuasifs sont négligeables.

Les effets dissuasifs et notre infrastructure juridique permissive

Les préoccupations concernant les effets dissuasifs, c’est-à-dire l’idée que certaines lois ou certains règlements peuvent « dissuader » ou décourager les gens d’exercer leurs droits et libertés, ont longtemps été au centre des débats sur la réglementation et la modération du contenu en ligne.  Bien des grandes entreprises, comme les fournisseurs de services et les plateformes, ont manié ces arguments avec beaucoup de succès. Elles ont ainsi pu limiter les efforts de réglementation et promouvoir un environnement juridique et réglementaire généralement permissif.

Un des meilleurs exemples de ces efforts de la part des grandes entreprises est sans doute l’article 230 de la Communications Decency Act aux États-Unis. Cette disposition fournit aux plateformes Web et aux médias sociaux une immunité juridique quasi totale en ce qui a trait à leur responsabilité envers le contenu généré par les utilisateur·trice·s et les poursuites judiciaires liées à leurs pratiques de modération de contenu. L’article 230 est considéré comme une « vache sacrée » par le secteur américain des technologies. Cette disposition est toutefois controversée, car les protections juridiques à large portée qu’elle fournit permettent actuellement à de grandes entreprises de plateformes comme Facebook, Google et Twitter d’éviter leurs responsabilités juridiques. De plus, elle fournit très peu d’incitatifs à lutter contre les abus en ligne et d’autres types de préjudices.

Ces déclarations sur l’effet dissuasif de la réglementation en matière de préjudices sur le Web ont été centrales à la vaste portée accordée à l’article 230. La célèbre décision de la cour d’appel des États-Unis pour le quatrième circuit, rendue en 1997 dans l’affaire Zeran v America Online, qui a fourni à l’article 230 son interprétation élargie, était fondée sur des préoccupations à propos des effets dissuasifs. L’entreprise AOL avait soutenu que sans immunité totale, les fournisseurs de services en ligne devraient restreindre et décourager la prise de parole sur le Web pour éviter toute responsabilité. Le tribunal a entièrement adhéré à cette conception anti-réglementation, malgré le fait que ni le texte de l’article 230, ni son histoire et ni son intention législative originale ne justifient cette interprétation qui accorde, à l’issue de l’affaire Zeran, l’immunité totale.

Malgré cela, l’interprétation a perduré car la plupart des tribunaux ont été réticents à revoir la portée de l’article 230 découlant de l’affaire Zeran. De plus, les législateur·trice·s n’ont pas adopté de réformes se rapportant à l’article 230, malgré une opposition des critiques durant plusieurs années, favorisant ainsi une infrastructure juridique et réglementaire profondément permissive pour les plateformes.

Étant donné qu’aujourd’hui, la plupart des plateformes de médias sociaux puissantes et populaires sont des entreprises américaines, l’approche réglementaire permissive des États-Unis, appuyée par l’article 230, a eu des répercussions au Canada. Nous n’avons pas de loi générale sur la responsabilité des intermédiaires permettant le contrôle des plateformes. Tant les tribunaux que les gouvernements ont été très réticents à changer cette situation. Dans les cas où l’on a pris des mesures en ce sens, les préoccupations, les affirmations et les critiques au sujet des effets dissuasifs refont surface. C’est ce qu’a vécu le gouvernement Trudeau.

Malgré leur prépondérance dans le débat, ces affirmations ont fait l’objet de peu d’études systématiques. Selon certaines études empiriques, ces lois n’ont pas les effets dissuasifs que les critiques leurs prêtent. En outre, les critiques à l’endroit de la législation sur le Web font fi des effets dissuasifs d’une autre nature, c’est-à-dire l’inhibition causée par les préjudices et les abus sur le Web en tant que tels. Des spécialistes renommé·e·s en matière de protection de la vie privée et d’abus en ligne comme Danielle Citron ont largement documenté la manière dont le harcèlement, l’intimidation et les comportements abusifs sur Internet engendrent un effet dissuasif profond : une « incidence totale et dévastatrice » qui réduit les victimes au silence, dont l’effet touche les femmes et les personnes issues de minorités de manière disproportionnée.

Comment la réglementation peut soutenir la prise de parole

Dans un article publié en 2019, Citron et moi-même avons exploré l’effet potentiel d’une loi en matière de cyberintimidation sur le genre de prise de parole ou d’action qu’un groupe de participant·e·s aurait sur internet. Une étude menée auprès de près de 1 300 utilisateur·trice·s d’Internet en âge adulte aux États-Unis a révélé que la loi en matière de cyberintimidation que nous avons mise à l’essai aurait un effet dissuasif négligeable. La plupart des participant·e·s ont indiqué qu’une telle loi n’aurait aucune incidence ou que celle-ci les inciterait un peu ou beaucoup plus à s’exprimer, à partager du contenu et à participer à des échanges sur le Web. De surcroît, nous avons constaté que la loi aurait un effet positif sur l’expression : en fait, elle encouragerait ces activités, en particulier pour les femmes.

Nous avons expliqué les résultats de l’étude à l’aide de la théorie du « droit expressif », un corpus de recherches comportementales en expansion dont l’objet principal est la fonction expressive du droit, c’est-à-dire la capacité du droit à façonner les normes comportementales en modifiant la signification sociale de certains comportements. L’adoption d’une loi génère un puissant signal symbolique ou « informatif » quant au consensus sociétal ou aux attitudes populaires au sens large en matière de comportement social, c’est-à-dire la manière dont les gens doivent agir et les comportements qui sont approuvés et désapprouvés. Les lois nous informent également du « risque » relatif associé à certains comportements. L’adoption de règlements en matière de discours sur Internet augmenterait le risque associé aux comportements abusifs et réduirait le risque associé à la prise de parole et à la diffusion de contenu sur le Web, en particulier pour les personnes qui sont le plus souvent victimes de comportements abusifs sur Internet. Au fil du temps, les gens intérioriseraient les attitudes et les normes exprimées par la loi, modifiant ainsi plus largement les normes comportementales.

Étant donné que les femmes sont ciblées de manière disproportionnée par le harcèlement et les comportements abusifs en ligne, nos conclusions sont logiques du point de vue de la théorie du droit expressif. On observe qu’une loi en matière de cyberintimidation dont l’objet est de décourager le harcèlement et les comportements abusifs subis par les femmes sur Internet produit un effet expressif positif sur leur prise de parole, leur diffusion de contenu et leur participation.

Dans le cadre de notre recherche expérimentale plus récente, nous avons exploré l’effet des mesures juridiques et celles adoptées par les plateformes visant à protéger les utilisateur·trice·s contre les abus et invasions de la vie privée. De même, nous avons observé qu’il y avait peu de données probantes quant à l’existence des effets dissuasifs de telles mesures. Nous avons toutefois constaté que ces mesures soutenant la protection de la vie privée favorisaient la confiance, ce qui est essentiel pour favoriser la prise de parole et la diffusion de contenu personnel en ligne, ainsi que l’expression hors ligne, en particulier pour les femmes et les groupes minoritaires, plus susceptibles d’être victimes de menaces portant atteinte à la vie privée et d’abus similaires.

Nos résultats vont dans le même sens que ceux d’autres études récentes, comme celle du chercheur en sciences sociales informatiques Nathan Matias, qui a constaté que les règlements en matière de comportements abusifs dans les communautés Web ont aidé à réduire le harcèlement et ont encouragé la participation d’un plus grand groupe de personnes.

Implications pour le droit en matière de préjudices sur le Web et perspectives

Les critiques ont donc tort. Il existe peu de données appuyant les affirmations selon lesquelles la législation en matière de préjudices en ligne, comme le projet de loi canadien, entraverait la liberté d’expression et la participation sur Internet.

Selon les résultats de nos recherches, le contraire serait vrai : la législation sur les préjudices en ligne, si elle est soigneusement ajustée et communiquée de manière efficace, pourrait soutenir et encourager une plus grande diversité d’expression et de participation, en particulier pour les personnes les plus souvent réduites au silence parce qu’elles sont la cible de comportements abusifs, à savoir les femmes et les personnes issues de minorités. Voilà comment la législation et la réglementation en matière de discours en ligne peuvent favoriser l’expression des internautes.

Platform Data is Social: How Publicity and Privacy are Vital to Data Governance

by Wendy Hui Kyong Chun and Prem Sylvester

Scroll down for the French version / La version française est suivi

Canada, like many other nations, is proposing a new suite of legislation that acknowledges privacy as a fundamental and individual human right, most notably the Digital Charter Implementation Act, 2022 or Bill C-27.

Although important, these proposals do not adequately consider how platforms’ social nature challenges the neat distinction between private and public spheres. These challenges occur at the levels of user actions, algorithmic data processing, and technical communications. For example, users frequently post pictures and birthdates of their children on social media; recommender systems and digital advertising regularly target users based on data that serve as proxies for political affiliation or sexual orientation; wireless network cards constantly read-in all available data—including their neighbours’ passwords—in order to determine what information to forward to a computer’s Central Processing Unit.

To address these challenges, researchers and advisors have called for group-based privacy rights and the introduction of the category of inferred data, both of which underscore the limitations of an individual-based rights framework. Recommendations from the Office of the Privacy Commissioner of Canada (OPC) for Bill C-11 also underscore an individual’s “right to reputation,” including the right to be forgotten that may take the form of data deletion.

To complement and further these interventions, this brief describes the unique challenges posed by social data and how to revise policy around data collection, use, and governance to account for public rights.

Being in Public on Platforms: How We are Recognized by Data

To be on platforms is to be social. As Hannah Arendt had argued long before the advent of social media, the social is neither public nor private—it deliberately blurs the distinction between the two, enabling seemingly private concerns to have a wider audience and bringing a (sometimes unwanted) audience into seemingly private matters.
On platforms, this blurring takes three interrelated forms. First, the technical architecture of networking technologies operates through blurring boundaries between private and public. We connect to platforms through wireless devices that constantly ‘leak’ data such as IP addresses and (geo)location.

Second, algorithms designed to ‘personalize’ platforms use correlated data to predict and shape our social habits. Such social data makes our private desires appear in/as public. With Amazon’s acquisition of One Medical, for example, the cost of medical insurance policies may be correlated not just to our own purchase history and financial data, but to the (private) data of other people.

Third, platforms encourage people to publicly interact with each other as if we were in a private space with trusted, or seemingly trustworthy, others. At the same time, through platforms, people choose to (or have to) be in public — and garner publicity — to participate in social life. The rise of influencers and other forms of microcelebrity, collective action organized on social media platforms, and platforms tracking gig workers driving on public roads, all point to how platforms make possible and change publicity. Such publicity may expose prominent members of vulnerable groups, such as female influencers and Black activists, to harassment. Even while having everyday conversations or discussions tangential to their political activity, social data connects such individuals to those who might mock or threaten them.

The interactions and relations that emerge from such publicity both rely on, and generate, data that are collected and used by privately owned and operated platforms. Platforms make possible the collection of social data for their private benefit. The privacy of platform companies, as currently codified, protects their rights to the generation of social data for commercial use. The privacy of individuals, however, is subject to violation through the very information that can be inferred from such data.

We therefore need to develop two forms of rights. First, we need privacy rights that protect boundaries between ourselves and platforms to protect us from corporate data extraction. Second, we need to develop public rights that allow us to engage in collective and public actions without being exposed to collective harms.

Privacy and publicity rights that do not recognize how we might want to, or are compelled to be, in public are inadequate. To govern platforms and their data operation, we need to recognize the particular (and peculiar) way platforms use our data to engender publicity and, consequently, shape people’s reputations. We need a framework for public rights that acknowledges the social grounds of publicity’s relationship to privacy.

From Publicity Rights to Public Rights

The publicity rights established through decades of case law offer precedent for our framework. Such rights are intended to protect against the “wrongful appropriation of personality,” or what may be termed one’s identity as defined by their image, name, or likeness, especially for commercial exploitation or profit. More recent case law asserts that a person does not need to be a ‘public figure’ (such as an influencer or a celebrity) to expect that their privacy will not be infringed upon while being in public. The link between reputation and privacy, meanwhile, has some legal precedent in the Civil Code of Québec: Article 35 stipulates that “Every person has a right to the respect of his reputation and privacy.” In general, however, an individual’s reputation is protected against defamation through provincial regulation such as Libel and Slander Acts (e.g., in Ontario and BC) and sections of the federal Criminal Code pursuant to Offences Against the Person and Reputation. In such cases, the publisher of the defamatory statements or claims pays monetary damages to the affected person(s).

There are, however, two significant ways in which existing regulation is limited. First, publicity rights primarily protect individual rights to the extent that one’s identity is ‘proprietary.’ Second, individual rights are insufficient to protect one from the reputational harms that might emerge from socially derived data. Private information becomes public because of the social dimensions of platforms—one’s identity and reputation, built in part via correlations, is not solely individual. That is, one’s actions on social media may affect one’s own, or another person’s, public identity. That data, in turn, holds commercial value for platforms due to their correlations to people’s identities.

Protecting privacy would therefore require public rights premised on our privacy in public: it would require the ability to refuse publicity in the first place. These rights in the context of data governance would delineate what data about groups and individuals should never be collected, stored, or used. They would also establish how data about our platform use should be collected, stored, or used so that collective or individual harms do not accrue to vulnerable people. Public rights would allow us to be social without our privacy being violated or our publicity being exploited.

Operationalizing Public Rights in (Social) Data Governance

A public rights framework would thus regulate data that could be used to make harmful inferences about people: inferences that could impact people’s reputations, their ability to be safe online, and their ability to keep some information private. It would prevent private platforms from making problematic inferences about individuals as well as groups of people through what people are — technically, algorithmically, and for commercial benefit — encouraged to share publicly. Such a framework would set the terms for anonymity — not simply anonymization or de-identification — so that platforms do not impinge on our fundamental right to privacy (beyond our data privacy). Public rights would take fully into account the reality that the data which platforms collect, store, use, and sell are inherently, and unavoidably, social data.


la version française

La dimension sociale des données des plateformes : pourquoi la publicité et la confidentialité sont essentielles pour la gouvernance des données

Comme beaucoup d’autres pays, le Canada propose une nouvelle série de lois qui reconnaissent la protection de la vie privée comme un droit humain fondamental et individuel, en particulier la Loi de mise en œuvre de la Charte du numérique de 2022 ou le projet de loi C-27.

Bien qu’importantes, ces propositions ne tiennent pas suffisamment compte de la façon dont la nature sociale des plateformes remet en question la distinction nette entre les sphères privée et publique. Ces défis concernent les actions des utilisateur·rice·s, le traitement algorithmique des données et les communications techniques. Par exemple, les utilisateur·rice·s publient fréquemment des photos et les dates de naissance de leurs enfants sur les médias sociaux ; les systèmes de recommandation et la publicité numérique ciblent régulièrement les utilisateur·rice·s sur la base de données qui servent d’indicateurs de l’affiliation politique ou de l’orientation sexuelle ; les cartes de réseau sans fil lisent constamment toutes les données disponibles (y compris les mots de passe de leurs voisins) afin de déterminer quelles informations transmettre au processeur central d’un ordinateur.

Pour relever ces défis, les chercheur·euse·s et les conseiller·ère·s préconisent de définir des droits de protection de la vie privée basés sur des groupes et l’introduction de la catégorie des données dites « déduites », soit deux mesures qui soulignent les limites d’un cadre de droits basés sur l’individu. Les recommandationsdu Commissaire à la protection de la vie privée du Canada (CPVP) concernant le projet de loi C-11 soulignent également le « droit à l’image » de l’individu, y compris le droit à l’oubli, qui peut prendre la forme d’une suppression des données.
Dans le but de compléter et d’approfondir ces interventions, ce mémoire décrit les défis uniques posés par les données sociales et la manière de réviser les politiques relatives à la collecte, à l’utilisation et à la gouvernance des données pour tenir compte des droits publics.

La vie publique sur les plateformes : comment les données nous reconnaissent

Utiliser une plateforme, c’est être social·e. Comme Hannah Arendt l’avait affirmé bien avant l’avènement des médias sociaux, le social n’est ni public ni privé. Il brouille délibérément la distinction entre les deux sphères, permettant à des préoccupations apparemment privées d’avoir une audience plus large et amenant un public (parfois non désiré) à s’intéresser à des questions apparemment privées.

Sur les plateformes, ce flou prend trois formes interdépendantes. Premièrement, l’architecture technique des technologies de réseau opère en brouillant les frontières entre le privé et le public. Nous nous connectons aux plateformes par l’intermédiaire d’appareils sans fil qui « laissent filtrer » en permanence des données telles que les adresses IP et la (géo)localisation.

Deuxièmement, les algorithmes conçus pour « personnaliser » les plateformes utilisent des données corrélées pour prédire et façonner nos habitudes sociales. Ces données sociales font apparaître nos désirs privés comme étant publics. Avec l’acquisition de One Medical par Amazon, par exemple, le coût des polices d’assurance médicale peut être corrélé non seulement à notre propre historique d’achat et à nos données financières, mais aussi aux données (privées) d’autres personnes.

Troisièmement, les plateformes encouragent les utilisateur·rice·s à interagir publiquement les un·e·s avec les autres comme s’iels se trouvaient dans un espace privé avec des personnes de confiance, ou apparemment dignes de confiance. En même temps, les utilisateur·rice·s créent des profils publics (par choix ou non), et consomment de la publicité, pour participer à la vie sociale. La montée en puissance des influenceur·euse·s et d’autres formes de micro-célébrité, l’action collective organisée sur les plateformes de médias sociaux et les plateformes de suivi des travailleur·euse·s indépendant·e·s conduisant sur la voie publique sont autant d’exemples de la manière dont les plateformes génèrent et modifient la publicité. Cette publicité peut exposer des membres éminent·e·s de groupes vulnérables au harcèlement, tels que les influenceuses et les militant·e·s noir·e·s. Alors même qu’iels ont des conversations quotidiennes ou des discussions tangentes à leur activité politique, leurs données sociales les mettent en contact avec les personnes qui pourraient les harceler ou les menacer.

Les interactions et les relations qui émergent de cette publicité génèrent et s’appuient sur les données collectées et utilisées par des plateformes détenues et exploitées par des particuliers. Ces plateformes rendent possible la collecte de données sociales pour leur bénéfice privé. La confidentialité des sociétés de plateformes, telle qu’elle est actuellement codifiée, protège leurs droits à la génération de données sociales à des fins commerciales. Cependant, la protection de la vie privée des individus est susceptible d’être violée par les informations mêmes qui peuvent être déduites de ces données.

Il est donc nécessaire de développer deux formes de droits. Premièrement, des droits de protection de la vie privée sont nécessaires pour maintenir une distinction entre notre personne et les plateformes, afin de nous protéger de l’extraction de données par les entreprises. Deuxièmement, des droits publics sont nécessaires pour nous permettre de nous engager dans des actions collectives et publiques sans nous exposer à des préjudices collectifs.

Les droits relatifs à la protection de la vie privée et à la publicité sont inadéquats lorsqu’ils ne tiennent pas compte de la manière dont nous souhaitons être perçu·e·s publiquement (ou dont nous sommes perçu·e·s malgré nous). Pour gouverner les plateformes et l’exploitation de leurs données, nous devons reconnaître la manière particulière (et singulière) dont elles utilisent nos données pour générer de la publicité et, par conséquent, façonner la réputation de leurs utilisateur·rice·s. Il est nécessaire d’établir un cadre pour les droits publics qui reconnaisse les fondements sociaux de la relation entre la publicité et la vie privée.

Des droits de publicité aux droits publics

Les droits de publicité établis par des décennies de jurisprudence constituent un précédent pour notre cadre. Ces droits visent à protéger contre « l’appropriation illicite de la personnalité », ou ce que l’on peut appeler l’identité d’une personne définie par son image, son nom ou son apparence, en particulier à des fins d’exploitation commerciale ou de profit. Une jurisprudence plus récente affirme qu’une personne n’a pas besoin d’être une « figure publique » (comme un·e influenceur·euse ou une célébrité) pour s’attendre à ce que sa vie privée ne soit pas violée lorsqu’elle est en public. Le lien entre la réputation et la vie privée, quant à lui, a un précédent juridique dans le Code civil du Québec : L’article 35 stipule que « Toute personne a droit au respect de sa réputation et de sa vie privée. » En général, cependant, la réputation d’une personne est protégée contre la diffamation par des réglementations provinciales telles que les lois sur la diffamation (comme les « Libel and Slander Acts » en Ontario et en Colombie-Britannique) et des articles du Code criminel du Canada relatifs aux infractions contre la personne et la réputation. Dans de tels cas, la personne qui diffuse des déclarations ou affirmations diffamatoires verse des dommages-intérêts à la ou aux personnes concernées.

La réglementation existante est toutefois limitée sur deux points importants. Premièrement, les droits de protection de la personnalité protègent principalement les droits individuels dans la mesure où l’identité d’une personne lui appartient. Deuxièmement, les droits individuels ne suffisent pas à protéger les personnes contre les atteintes à la réputation qui pourraient émerger de données obtenues via des plateformes sociales. Les informations privées deviennent publiques en raison des dimensions sociales des plateformes. L’identité et la réputation d’une personne, construites en partie par des corrélations, ne sont pas uniquement individuelles. En d’autres termes, les actions d’une personne sur les médias sociaux peuvent affecter sa propre identité publique ou celle d’une autre personne. Ces données, à leur tour, ont une valeur commerciale pour les plateformes en raison de leurs corrélations avec les identités des personnes.

La protection de la vie privée nécessiterait donc des droits publics fondés sur notre vie privée en public : elle nécessiterait la capacité de refuser la publicité en premier lieu. Dans le contexte de la gouvernance des données, ces droits définiraient les données concernant des groupes et des individus qui ne devraient jamais être collectées, stockées ou utilisées. Ils établiraient également comment les données relatives à l’utilisation de notre plateforme devraient être collectées, stockées ou utilisées de manière à ce que les personnes vulnérables ne subissent pas de préjudices collectifs ou individuels. Les droits publics nous permettraient d’avoir une vie sociale sans que notre vie privée soit violée ou que notre publicité soit exploitée.

Opérationnaliser les droits publics dans la gouvernance des données (sociales)

Un cadre de droits publics permettrait donc de réglementer les données susceptibles d’être utilisées pour émettre des déductions préjudiciables sur les personnes : des déductions qui pourraient avoir un impact sur leur réputation, leur sécurité en ligne et leur capacité à garder certaines informations privées. Il empêcherait les plateformes privées de faire des déductions problématiques sur les individus et les groupes de personnes à travers ce que les utilisateur·rice·s sont encouragé·e·s à partager publiquement et ce, techniquement, algorithmiquement et pour un bénéfice commercial. Un tel cadre fixerait les conditions de l’anonymat, et pas seulement de l’anonymisation ou de la dépersonnalisation, afin que les plateformes n’empiètent pas sur notre droit fondamental à la vie privée (au-delà de la confidentialité de nos données). Les droits publics tiendraient pleinement compte du fait que les données que les plateformes collectent, stockent, utilisent et vendent sont intrinsèquement et inévitablement des données sociales.

Governing Human-Derived Data

La gouvernance des données d’origine humaine

by Teresa Scassa

La version française est suivi.

Scroll down for the French translation.

Platforms harvest vast quantities of user data for a variety of commercial and operational purposes, including driving targeted advertising programs. These data may also be made available to third parties. Platform data are also scraped by a variety of actors, including researchers, civil society actors, commercial competitors and data brokers. One notorious example of the scraping of personal information from platforms comes from Clearview AI’s scraping of online photographs to build its massive facial recognition database.

Perhaps the most highly sought-after platform data are those derived from humans and their activities. Issues around the legitimacy of collecting, using or sharing these data are often intertwined with considerations about whether the data are about identifiable individuals or are either deidentified at source or subsequently anonymized. This brief will argue that questions of appropriate data collection/use – in the platform context and elsewhere – can no longer be sufficiently addressed by asking whether the data are about an identifiable individual (i.e., whether they are personal data) or whether they are anonymized. While “personal data” and “anonymized data” remain important classifications under data protection law, we also need a new concept of “human-derived data” with a distinct governance framework.

Data protection (privacy) laws typically govern information about an identifiable individual. This is because such laws are built upon privacy principles that protect the rights of individuals to control information about themselves. In such a framework, if information cannot be linked to a particular individual, then that individual’s privacy rights cannot be impacted by its processing. As a result, in a context in which data have become the highly sought-after fuel for data-driven innovation, including artificial intelligence (AI), it is unsurprising that there is considerable pressure to distinguish between personal data and anonymized data, and to set anonymized data outside the scope of data protection laws.

The distinction between personal and anonymized data frees up anonymized data for more widespread use. This is the normative position adopted in the EU’s General Data Protection Regulation (GDPR). It is also evident in the Consumer Privacy Protection Act portion of Canada’s Bill C-27, and in legislation such as Ontario’s Personal Health Information Protection Act.  Typically, personal data are subject to regulation and governance; anonymized data are available for use without knowledge or consent. Any oversight of the use of anonymized data will relate to the process of anonymization (since if it is not done properly, the data can be linked to an identifiable individual and thus remain personal data). Increasingly, data protection laws also provide penalties for deliberate reidentification of anonymized data.

There are problems with this approach to anonymized data. First, a growing number of scholars and privacy advocates have warned that with contemporary volumes of data and data analytics tools, it will always be possible to reidentify individuals from datasets, making anonymization a chimera. Yet, that is not necessarily a problem under data protection laws, which often define anonymization in relative terms. Thus, the issue of reidentification requires consideration of a variety of factors, including the sensitivity of the data, what other relevant data are available that might lead to reidentification, and how likely it is that an adversary will seek to reidentify one or more individuals from the anonymized dataset. One difficulty is that reidentification risk for anonymized datasets may change over time, as more and more data become available and as new analytical tools are developed.

Second, some scholars argue that we need a concept of group or collective privacy that recognizes potential group interests in data that have been collected from humans, even if those data are anonymized. However, contemporary data protection laws do not recognize group privacy, even though these arguments have been taken up not just by scholars, but by privacy advocates in a range of contexts. Debates over AI governance also raise concerns that even anonymized data can adversely impact individuals and/or groups. The Artificial Intelligence and Data Act component of Canada’s Bill C-27, for example, would create stewardship obligations for anonymized data, particularly in relation to their potential to lead to biased AI output.

The distinction between personal data and anonymized data leaves an important governance gap. To address this gap, we need to recognize a new category of data which I call “human-derived data”. Human-derived data are data derived from humans or their activities and that are not personal data. While the normative basis for privacy law is the autonomy and dignity of individuals, the normative basis for the governance of human-derived data is fundamental human rights. Individuals and/or the communities/groups they belong to are the source of these data; these data can be used in ways that harm or exploit the collective or its members, and they require some form of governance to ensure that they are not used in harmful, discriminatory or rights-limiting ways.

Why is privacy not a sufficient normative basis for governance of human-derived data? One reason is that privacy law is premised on the individual and their right to control their personal data, and through their data, their identity. The group privacy concept addresses more communal rights in data and often advances the concerns of equity-deserving groups. Because of the potential for human-derived data to impact decisions made about both groups and individuals in ways that go beyond privacy, governing human derived data can address human rights other than privacy, such as the right to be free from discrimination.

A focus on human-derived data (rather than anonymized personal data) puts the human and not the individual at the heart of the analysis. It is a more explicitly human rights-based focus. Adding governance of anonymized personal data is insufficient. Although some human-derived data may begin as personal data prior to anonymization, other human-derived data are collected in contexts where they are never linked to identifiable individuals. For example, data about the presence of the COVID-19 virus and its variants in wastewater is not collected in ways that lead to the identification of specific individuals. It is therefore never personal data, but it is human-derived data. Anonymized data are thus only a subset of the category of human-derived data.

Because it is distinct from the individual who is at the normative heart of privacy law, the governance of human-derived data can embrace a greater range of considerations. These include broader human rights concerns (such as the right to be free from discrimination) as well as ethical principles. The collection and use of human-derived data, for example, might require transparency and public engagement. It could also require open access to results of analyses or research, or the return of direct or indirect (although not remote) benefits to the community. These concepts have already emerged in discussions about data or knowledge commons, in citizen science ethics, as well as in access-benefit sharing frameworks for the use of genetic resources. The factors relevant to determining appropriate governance for human-derived data may depend on context. For example, the governance of human-derived data may consider the nature or composition of the communities from which such data are gathered, and the relationship of the data gathering to public or private infrastructure.

An argument for the governance of human-derived data is not an argument against data protection law (which remains necessary) nor is it an argument against the governance of anonymized data – particularly regarding protections to ensure it remains anonymous. Rather, it is an argument that the ubiquitous collection of data about human activities and its growing use to drive decision-making about communities and individuals across sectors and spheres of activities require an appropriate framework to ensure transparency and engagement and to protect human rights.


la version française

La gouvernance des données d’origine humaine

Les plateformes collectent de grandes quantités de données sur les utilisateur·rice·s à des fins commerciales et opérationnelles diverses, notamment pour mettre en place des programmes de publicité ciblée. Ces données peuvent également être partagées avec des tiers. Les données des plateformes sont également grattées[TS1]  par divers acteur·rice·s, notamment des chercheur·euse·s, des acteur·rice·s de la société civile, des concurrents commerciaux et des courtier·ère·s en données. Un exemple notoire de grattage de renseignements personnels [TS2] à partir de plateformes est celui de Clearview AI, qui a gratté des photographies en ligne pour bâtir sa gigantesque base de données de reconnaissance faciale.

Les données les plus recherchées par les plateformes sont généralement celles qui proviennent des humains et de leurs activités. Les questions relatives à la légitimité de la collecte, de l’utilisation ou du partage de ces données sont souvent liées à la question de savoir si les données concernent des personnes identifiables ou si elles sont dépersonnalisées à la source, ou encore anonymisées par la suite. Cet article fait valoir que, pour traiter les questions relatives à la collecte et à l’utilisation appropriées des données (sur les plateformes et ailleurs), il ne suffit plus de se demander si ces données concernent une personne identifiable (c’est-à-dire s’il s’agit de données à caractère personnel) ou si elles sont anonymisées. En effet, si la différence entre « données personnelles » et « données anonymes » reste une distinction importante dans le cadre de la législation sur la protection des données, il est toutefois nécessaire de définir le concept de « données d’origine humaine » dans un cadre de gouvernance distinct.

À l’heure actuelle, les lois sur la protection des données (et la protection de la vie privée) régissent généralement les renseignements relatifs à des personnes identifiables. En effet, ces lois reposent sur des principes de confidentialité qui protègent le droit des individus à contrôler les renseignements les concernant. Dans un tel cadre, si les renseignements en question ne peuvent être reliés à une personne en particulier, le traitement de ces derniers ne peut avoir d’incidence sur le droit à la protection de la vie privée de cette personne. Par conséquent, dans un contexte où les données sont essentielles pour l’innovation basée sur les données, y compris l’intelligence artificielle (IA), il n’est pas surprenant qu’il y ait une pression considérable pour faire la distinction entre les données personnelles et les données anonymisées, et pour placer ces dernières en dehors du champ d’application des lois sur la protection des données.

En effet, le fait d’établir une distinction entre les données personnelles et les données anonymisées permet une utilisation plus large de ces dernières. Telle est la position normative adoptée dans le Règlement général sur la protection des données (RGPD) de l’Union européenne. Cette position apparaît également de façon évidente dans la partie du projet de loi C-27 relatif à la Loi sur la protection de la vie privée des consommateurs et dans des lois telles que la Loi sur la protection des renseignements personnels sur la santé de l’Ontario.  En règle générale, les données personnelles font l’objet d’une réglementation et d’une gouvernance, tandis que les données anonymisées peuvent être utilisées à l’insu des personnes concernées et sans leur consentement. Tout contrôle de l’utilisation de données anonymisées porte généralement sur le processus d’anonymisation (car, si l’anonymisation n’est pas effectuée correctement, les données peuvent être reliées à une personne identifiable et donc rester des données personnelles). De plus en plus, les lois sur la protection des données prévoient également des sanctions en cas de réidentification délibérée de données anonymisées.

Cette approche relative aux données anonymisées pose différents problèmes. Tout d’abord, un nombre croissant d’universitaires et de défenseur·euse·s de la vie privée ont averti que, compte tenu des volumes actuels de données et d’outils d’analyse de données, il sera toujours possible de réidentifier des individus à partir d’ensembles de données, ce qui fait de l’anonymisation une chimère. Cela dit, ce point ne constitue pas nécessairement un problème en vertu des lois sur la protection des données, car celles-ci définissent souvent l’anonymisation en termes relatifs. Ainsi, la question de la réidentification nécessite la prise en compte de divers facteurs, notamment la sensibilité des données, les autres données pertinentes disponibles qui pourraient contribuer à la réidentification des personnes et la probabilité qu’un·e adversaire cherche à réidentifier une ou plusieurs personnes à partir de l’ensemble de données anonymisées. L’une des difficultés réside dans le fait que le risque de réidentification pour les ensembles de données anonymisées peut évoluer au fil du temps, à mesure que de plus en plus de données deviennent disponibles et que de nouveaux outils analytiques sont mis au point.

De plus, certain·e·s chercheur·euse·s soutiennent qu’il serait utile de définir un concept portant sur la protection de la vie privée des groupes ou collectives[TS3]  et qui reconnaisse les potentiels intérêts de groupe associés aux données humaines collectées, et ce même si ces données sont anonymisées. Toutefois, les lois actuelles sur la protection des données ne reconnaissent pas la vie privée des groupes, même si ces arguments ont été repris non seulement par les universitaires, mais aussi par les défenseur·euse·s de la vie privée dans de nombreux contextes. Les débats sur la gouvernance de l’IA soulèvent également des préoccupations quant au fait que même les données anonymisées peuvent avoir des répercussions négatives sur les individus et/ou les groupes. Si elle est approuvée, la partie du projet de loi C-27 portant sur la Loi sur l’intelligence artificielle et les données, par exemple, engendrerait des obligations en matière de gestion des données anonymisées, en particulier en ce qui concerne leur potentiel à conduire les IA à fournir des résultats biaisés.

La distinction entre les données personnelles et les données anonymisées laisse subsister une importante lacune en matière de gouvernance. Pour combler cette lacune, nous devons reconnaître une nouvelle catégorie de données que j’appelle « données d’origine humaine ». Les données d’origine humaine sont des données dérivées de l’humain ou de ses activités, mais qui ne sont pas des données personnelles. Alors que la base normative du droit à la protection de la vie privée est l’autonomie et la dignité des individus, la base normative de la gouvernance des données d’origine humaine repose sur les droits fondamentaux de la personne. Les individus et/ou les communautés/groupes auxquels ils ou elles appartiennent sont la source de ces données. Or, celles-ci peuvent être utilisées de manière à nuire ou à exploiter le collectif ou ses membres, et elles nécessitent une certaine forme de gouvernance pour garantir qu’elles ne sont pas utilisées de manière préjudiciable, discriminatoire ou limitant les droits des personnes.

Pourquoi la protection de la vie privée n’est-elle pas une base normative suffisante pour la gouvernance des données d’origine humaine? L’une des raisons à cela est que le droit relatif à la protection de la vie privée se fonde sur l’individu et son droit à contrôler ses données personnelles et, par le biais de ses données, son identité. Le concept axé sur la protection de la vie privée des groupes concerne des droits plus collectifs sur les données et permet souvent de réaliser des avancées pour répondre aux préoccupations des groupes en quête d’équité. Étant donné que les données d’origine humaine peuvent avoir des répercussions sur les décisions prises à l’égard des groupes et des individus d’une manière qui va au-delà de la protection de la vie privée, la bonne gouvernance de ce type de données peut contribuer à garantir des droits de la personne autres que la protection de la vie privée, tels que le droit de ne pas être victime de discrimination.

En mettant l’accent sur les données d’origine humaine (plutôt que sur les données personnelles anonymisées), on place l’humain et non l’individu au cœur de l’analyse. Il s’agit d’une approche plus explicitement fondée sur les droits de la personne. Il ne suffit pas d’adjoindre aux lois existantes le principe de la gouvernance des données personnelles anonymisées. En effet, même si certaines données d’origine humaine sont des données personnelles qui ont été anonymisées par la suite, d’autres sont collectées dans des contextes où elles ne sont jamais liées à des personnes identifiables. Par exemple, les données relatives à la présence du virus de la COVID-19 et de ses variants dans les eaux usées ne sont pas collectées de manière à permettre l’identification de personnes spécifiques. Il ne s’agit donc jamais de données personnelles, mais bien de données d’origine humaine. Les données anonymisées ne sont donc qu’un sous-ensemble au sein de la catégorie des données d’origine humaine.

Parce qu’elle se distingue de l’individu qui se situe au cœur de l’approche normative adoptée par le droit à la vie privée, la gouvernance des données d’origine humaine peut englober un plus grand nombre de considérations, dont des préoccupations plus larges en matière de droits de la personne (comme le droit de ne pas subir de discrimination), ainsi que des principes éthiques. Pour la collecte et l’utilisation de données d’origine humaine, on pourrait exiger la transparence et l’engagement du public. On pourrait également exiger un accès ouvert aux résultats des analyses ou de la recherche, ou le retour d’avantages directs ou indirects à la communauté (plutôt que de supposer que la collecte des données favorisera l’innovation ou l’économie). Ces concepts ont déjà été évoqués dans les discussions sur les données ou les connaissances en tant que biens communsl’éthique de la science citoyenne, ainsi que les cadres relatifs au partage des avantages liés à l’accès aux données pour l’utilisation des ressources génétiques. Les facteurs utiles pour déterminer la gouvernance appropriée des données d’origine humaine peuvent varier en fonction du contexte. Par exemple, la gouvernance des données d’origine humaine peut tenir compte de la nature ou de la composition des communautés auprès desquelles ces données sont collectées, ainsi que de la relation entre la collecte des données et les infrastructures publiques ou privées.

Les arguments en faveur de la gouvernance des données d’origine humaine ne vont pas nécessairement à l’encontre de la loi sur la protection des données (qui reste nécessaire) ni de la gouvernance des données anonymisées, en particulier en ce qui concerne les protections visant à garantir qu’elles restent anonymes. Il s’agit plutôt d’arguments selon lesquels la collecte omniprésente de données sur les activités humaines et l’utilisation croissante de ces dernières pour prendre des décisions concernant les communautés et les individus dans tous les secteurs et toutes les sphères d’activité nécessitent un cadre approprié pour garantir la transparence et l’engagement, ainsi que pour protéger les droits de la personne.

Beyond Personal Information: A Path to Protect Canadians Against Digital Harms

Aller au-delà des renseignements personnels : ouvrir la voie à des lois qui protègent la population canadienne contre les préjudices liés au numérique

by Christelle Tessono

La version française est suivi.

Scroll down for the French translation.

Introduction

In late February, the Canadian government banned TikTok from government mobile devices, following a review from the Chief Information of Canada which found that the application presented an “unacceptable level of risk to privacy and security”. However, critics of the ban have called this a “distraction” as these concerns are neither new or unique to TikTok. Researchers at the Citizen Lab published a report analyzing the platform and found that TikTok collects similar types of data to track users and serve targeted ads as other popular social media platforms. This made me wonder: what do platforms know about us? What strategies are they using to collect and analyze our data? But most importantly, what options do we have in Canada to protect against digital harms? In the following memo, I will argue that existing legislative frameworks in Canada cannot address the individual and collective harms raised by platforms because they focus on protecting personal identifiable information instead of all forms of what Teresa Scassa calls human-derived data in her piece.

What do platforms do with our data?

Platforms collect data ranging from our phone’s geolocation, the content we share and like on Instagram and TikTok, our health information collected from wearable healthcare tech such as a Fitbit, shopping transactions, to our browsing behaviour to name a few examples. As discussed by scholars Linnet Taylor et al. and Graef & van der Sloot, once this information is collected, it is often de-identified and curated to build large databases containing information that reflects the behaviour and activities of users. Then, computational tools are applied to these databases and draw insights from the aggregated data collected to identify patterns, preferences, and behaviors of the groups of people whose data has been collected. As argued by Barocas & Nissenbaum, the computational process of analyzing large databases to generate new information, commonly referred to as data mining, “breaks the basic intuition that identity is the greater source of potential harm because it substitutes inference for using identifying information as a bridge to get at additional facts.” In other words, insights drawn from these datasets can provide additional information about an individual or a group, without any personal identifiers.

What are the implications behind the use of these technologies?

At an individual level, it is hard to identify what/when/why/how models are applied and inferences are made about us. At present, researchers, whistleblowers, and journalists are the main routes to uncover these issues, such as the Wall Street Journal investigation of Meta Platforms Inc, which revealed that the platform knew about Instagram’s negative impact on teenage girls.

At a group level, automated forms of data analytics affect how groups of people are identified. As scholars Lanah Kammourieh et al. note, these systems can identify groups in four different ways. First, they can identify groups and infer information about them without a predefined hypothesis. Second, they can identify groups within a population that had no connection to one another prior to analysis. Third, they can identify groups through new analytical approaches and thus create groups based on previously unknown characteristics. Lastly, these practices might identify groups without analysts’ knowledge, thus running the risk of harming people.

What is particularly difficult about such inferences is that these computational analytical tools may discriminate against people by sorting them into groups that do not fall under legally protected categories (e.g. race, gender, disability) and without their personal information being exposed. This makes it difficult for someone to know if they were being profiled and discriminated against. As a result, privacy and data protection legislative strategies that focus solely on protecting identifiable personal information “distracts from, and may even give rise to, problems involving groups profiled anonymously from within huge digital datasets”.

What types of group harms emerge from making inferences through these databases? As noted in a report by the Citizen Lab on the collection of mobility data, although databases may contain de-identified or aggregated data, the risk of re-identification remains as it is possible to draw “inferences or correlations from the data or by overlaying it with known personal information.” A 2009 study by Harvard professor Latanya Sweeney proved this by re-identifying the names of over 40% participants from a sample of anonymous participants of a DNA study. Aside from the risk of identification, there is also the risk of surveillance of historically marginalized groups, or even political targeting as we have learned from the Cambridge Analytica scandal. Most significantly, automated decision-making systems deployed to analyze this data tend to misidentify, misclassify, and inaccurately predict outcomes.

How does Canada fare in the face of these challenges?

In terms of data protection and privacy legislation, the Canadian government has two sets of laws. First, the Privacy Act which governs the federal government collection, use, disclosure, retention, and disposal of personal information. Second, the Personal Information Protection and Electronic Documents Act (PIPEDA), which outlines how the private sector handles personal information during a commercial activity. Provinces and territories have their own laws governing private and public sector usage of personal information, though here I will only discuss federally mandated legislation. Both the Privacy Act and PIPEDA primarily focus on the protection of personal information. The Acts both define personal information as “information about an identifiable individual.” which leaves a significant gap around protecting data that is not identifiable.

In June 2022, the Canadian government tabled Bill C-27: Digital Charter Implementation Act, which consists of 3 separate Acts. First, the Consumer Privacy Protection Act (CPPA) seeks to modernize PIPEDA to adapt to emerging digital technology challenges. Second, the Personal Information and Data Protection Tribunal Act looks to create a tribunal to impose penalties for contraventions of the CCPA. Finally, the Artificial Intelligence and Data Act (AIDA) seeks to create a statutory framework to “regulate international and interprovincial trade and commerce in artificial intelligence systems by establishing common requirements […] for the design, development and use of those systems.” Regarding data protection, the CPPA is different from PIPEDA as it introduces provisions on data de-identification, deletion, and children’s protection. More specifically, it defines de-identification as the “means to modify personal information so that an individual cannot be directly identified from it, though a risk of the individual being identified remains.” Moreover, the CPPA seeks to provide safeguards for minors by considering their personal information as sensitive. Yet, these acts leave much to be desired.

How do we move forward?

To fight against emerging digital harms, the Canadian government should modernize privacy legislation and expand protections to non-identifiable information. This would involve implementing the following amendments to Bill C-27:

  1. Protections for all human-derived data, which includes personal information, de-identified and anonymized data as Teresa Scassa proposes.

  2. Instate a prohibition on the re-identification of de-identified data, as recommended by the parliamentary study on the use of mobility data during the COVID-19 pandemic.

  3. Empowering the Office of the Privacy Commissioner of Canada to enforce both public and private sector privacy laws, investigate breaches, draft regulation, and audit companies.

  4. Defining in the CPPA what constitutes a ‘legitimate commercial interest’ and ‘public good’ in the collection, storage, use, transfer, and sale of private data, as recommended by the parliamentary study on the use of mobility data during the COVID-19 pandemic.

Furthermore, given that emerging technologies relying on AI systems heavily infringe on privacy and other numerous human rights, the proposed AIDA needs significant improvement. The government should look to establish a robust independent regulatory framework by providing the Office of the Privacy Commissioner of Canada with adequate powers to enforce the law and craft sector-specific regulation. Moreover, we need a statutory framework that addresses the core human rights risks of algorithmic systems. This would include, but not be limited to, establishing clear limitations and guidelines on the design and development of algorithmic systems that:

  1. Impact the health and financial outcomes for individuals and communities.

  2. Are used to access social services or humanitarian aid.

  3. Are used to profile and influence peoples’ behaviour.

  4. Use biometric or health-related bodily information to uniquely identify and categorize people.

With Bill C-27 being presently debated at the House of Commons, the government has a unique opportunity to enact a legislative framework that not only protects Canadians against digital harms, but ensures the safe and equitable development of digital technologies.


la version française

Aller au-delà des renseignements personnels : ouvrir la voie à des lois qui protègent la population canadienne contre les préjudices liés au numérique

Introduction

Fin février, à la suite d’une évaluation menée par la dirigeante principale de l’information du Canada et dont les résultats ont montré que TikTok présentait un « niveau inacceptable de risque envers la vie privée et la sécurité »,[MA1]  le gouvernement canadien a interdit l’utilisation de l’application sur les appareils mobiles gouvernementaux. Les détracteurs et détractrices de cette interdiction, pour leur part, l’ont qualifiée de « diversion », dans la mesure où ces préoccupations ne sont ni nouvelles ni propres à TikTok. Une équipe de recherche du Citizen Lab a publié un rapport analysant la plateforme et a découvert que les types de données recueillis par TikTok pour suivre les utilisateur·rice·s et leur montrer des publicités ciblées sont en réalité semblables à ceux recueillis par les autres plateformes de réseaux sociaux populaires. Cela nous a poussé·e·s à nous interroger sur la question suivante : que savent de nous ces plateformes? Quelles sont les stratégies qu’elles emploient pour recueillir et analyser nos données? Et, plus important encore, quels sont les moyens à notre disposition au Canada pour nous protéger des préjudices liés au numérique? Dans l’article suivant, nous démontrerons que les cadres législatifs existants au Canada ne permettent pas de faire face aux préjudices individuels et collectifs que peuvent causer ces plateformes, car ils se centrent sur la protection des renseignements permettant d’identifier les personnes plutôt que de s’intéresser à toutes les formes de ce que Teresa Scassa appelle des « données d’origine humaine » dans son travail.

Que font les plateformes avec nos données?

Les plateformes de réseaux sociaux recueillent une grande variété de données allant de la géolocalisation de notre téléphone au contenu que nous partageons et aimons sur Instagram et TikTok, en passant par des informations sur notre santé recueillies à partir de technologies portables connectées qui suivent notre état de santé comme les montres Fitbit, sans oublier nos achats et nos habitudes de navigation, pour ne citer que quelques exemples. Comme le montrent les équipes de recherche de Linnet Taylor et al. et de Graef et van der Sloot, une fois ces informations recueillies, bien souvent, elles sont dépersonnalisées, puis soigneusement sélectionnées afin de créer d’énormes bases de données contenant des informations qui reflètent le comportement et les activités des utilisateur·rice·s. Par la suite, des outils informatiques de calcul sont appliqués à ces bases de données agrégées, dont ils tirent des informations exploitables dans le but d’identifier des tendances, des préférences et des comportements chez les groupes de personnes associés à ces données. Comme l’expliquent Barocas et Nissenbaum, le processus assisté par ordinateur consistant à analyser d’immenses bases de données pour générer de nouvelles informations, communément appelé exploration de données, « brise notre intuition première selon laquelle c’est l’identité qui constitue la plus grande source de danger potentiel, car il substitue l’inférence au fait d’utiliser des informations permettant d’identifier les personnes et s’en sert comme d’un pont pour parvenir à découvrir des informations supplémentaires ». En d’autres termes, les informations obtenues à partir de ces ensembles de données peuvent fournir d’autres informations sur un individu ou un groupe, sans faire usage des éléments permettant d’identifier les personnes.

Qu’implique l’utilisation de ces technologies?

Quels sont les systèmes informatisés [CT2] modèles appliqués au niveau individuel? À quel moment le sont-ils? Pourquoi et comment? Les mêmes questions se posent concernant les inférences que font ces systèmes font modèles à notre sujet. Mais, dans les deux cas, il est difficile d’y répondre. À l’heure actuelle, les équipes de recherche, les lanceur·euse·s d’alerte et les journalistes sont les trois acteurs principaux qui permettent de révéler au grand jour les problèmes que cela soulève. Par exemple, l’enquête du Wall Street Journal portant sur Meta Platforms inc. a révélé que la plateforme était au courant des répercussions négatives d’Instagram sur les adolescentes.

Au niveau collectif, les méthodes formulaires automatisés d’analyse de données ont une incidence sur la façon dont les groupes de personnes sont identifiés. Comme l’ont montré les chercheur·euse·s Lanah Kammourieh et al., ces systèmes sont capables d’identifier des groupes de quatre façons différentes. Tout d’abord, ils sont capables d’identifier des groupes et d’inférer des informations à leur sujet sans hypothèse prédéfinie. Deuxièmement, ils sont capables d’identifier les groupes au sein d’une population dont les membres n’avaient pas de rapport les un·e·s avec les autres avant l’analyse. Troisièmement, ils sont capables d’identifier des groupes grâce à de nouvelles approches analytiques et ainsi de créer des groupes basés sur des caractéristiques jusque-là inconnues. Enfin, ces systèmes pourraient être capables d’identifier des groupes à l’insu des analystes, risquant ainsi de porter préjudice à certaines personnes.

Ce qui est particulièrement délicat avec ce genre d’inférences, c’est que ces outils d’analyse informatique peuvent discriminer les gens en les répartissant dans des groupes qui n’appartiennent pas à des catégories protégées par la loi (par exemple, la race, le genre ou le handicap) et ce, sans que les renseignements personnels de ces personnes ne soient exposés pour autant. Il est donc difficile de déterminer si une personne a fait l’objet d’un profilage ou de discrimination. Par conséquent, les stratégies législatives en matière de protection de la vie privée et des données qui se concentrent uniquement sur la protection des renseignements personnels permettant d’identifier les personnes « détournent l’attention des problèmes mettant en jeu des groupes de personnes anonymes ayant fait l’objet d’un profilage à partir d’énormes ensembles de données numériques, et peuvent même donner lieu à ce type de phénomène ».

Quels sont les types de préjudices collectifs qu’on peut observer en raison des inférences tirées de ces bases de données? Comme le souligne le Citizen Lab dans un rapport sur la collecte de données sur la mobilité, bien que les bases de données puissent contenir des données dépersonnalisées ou agrégées, le risque de réidentification demeure, car il est possible d’établir « des inférences ou des corrélations à partir des données ou en les superposant avec des renseignements personnels connus ».  Une étude réalisée en 2009 par Latanya Sweeney, professeure à Harvard, l’a prouvé : dans ce cadre, plus de 40 % des personnes ayant participé de façon anonyme à une étude ADN ont pu être réidentifiées. Outre le risque d’identification, il existe aussi un risque de surveillance de groupes historiquement marginalisés, voire de ciblage politique, comme nous l’a appris le scandale de Cambridge Analytica. Plus important encore, les systèmes de prise de décision automatisés déployés pour analyser ces données ont tendance à mal identifier les gens, à mal les catégoriser et même à prédire des résultats de façon inexacte.

Comment le Canada s’en sort-il face à ces défis?

En matière de législation sur la protection des données et de la vie privée, le gouvernement canadien dispose de deux ensembles de lois. Premièrement, la Loi sur la protection des renseignements personnels, qui régit la collecte, l’utilisation, la divulgation, la conservation et la suppression des renseignements personnels par le gouvernement fédéral. Deuxièmement, la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE), qui décrit comment le secteur privé doit traiter les renseignements personnels lors d’une activité commerciale. De plus, les provinces et les territoires disposent également de leurs propres lois régissant l’utilisation des renseignements personnels par les secteurs privé et public. Cela étant dit, le présent article se concentrera uniquement sur les lois fédérales. La Loi sur la protection des renseignements personnels et la LPRPDE se concentrent toutes deux principalement sur la protection des renseignements personnels. Ces lois définissent les renseignements personnels comme étant « les données qui concernent un “individu identifiable” », une définition qui n’aborde absolument pas la question de la protection des données ne permettant pas d’identifier les individus.

En juin 2022, le gouvernement canadien a déposé le projet de loi C-27 : Loi sur la mise en œuvre de la Charte du numérique, qui vise à édicter trois lois distinctes. Premièrement, la Loi sur la protection de la vie privée des consommateurs (LPVPC) cherche à moderniser la LPRPDE afin que le pays puisse s’adapter aux défis émergents dans le contexte des technologies numériques. Deuxièmement, la Loi sur le Tribunal de la protection des renseignements personnels et des données cherche à créer un tribunal pour imposer des sanctions lorsque des infractions à la LPVPC sont commises. Enfin, la Loi sur l’intelligence artificielle et les données (LIAD) vise à créer un cadre législatif pour « réglementer les échanges et le commerce internationaux et interprovinciaux en matière de systèmes d’intelligence artificielle par l’établissement d’exigences communes […] pour la conception, le développement et l’utilisation de ces systèmes ». En ce qui concerne la protection des données, la LPVPC diffère de la LPRPDE, car elle introduit des dispositions sur la dépersonnalisation des données, leur suppression et la protection des enfants. Plus précisément, elle définit la dépersonnalisation des données comme le fait de « modifier des renseignements personnels afin de réduire le risque, sans pour autant l’éliminer, qu’un individu puisse être identifié directement ». De plus, la LPVPC cherche à fournir des garanties aux mineur·e·s en considérant leurs renseignements personnels comme sensibles. Or, malgré cela, ces lois laissent encore beaucoup à désirer.

Comment protéger davantage la population canadienne à l’avenir?

Pour lutter contre les préjudices liés au numérique qui émergent, le gouvernement canadien devrait moderniser sa législation sur la protection de la vie privée et étendre ses mesures de protection aux renseignements ne permettant pas d’identifier un individu. Cela impliquerait d’apporter les modifications suivantes au projet de loi C-27 :

  1. Mettre en place des mesures de protection pour toutes les données d’origine humaine, comme le propose Teresa Scassa. Cela inclurait les renseignements personnels, ainsi que les données dépersonnalisées et anonymisées.

  2. Instaurer une interdiction de réidentification des données dépersonnalisées, comme le recommande l’étude parlementaire sur l’utilisation de données sur la mobilité pendant la pandémie de COVID-19.

  3. Donner les moyens au Commissariat à la protection de la vie privée du Canada de faire appliquer les lois sur la protection de la vie privée dans les secteurs public et privé, d’enquêter sur les violations, de rédiger des réglementations et de contrôler les sociétés.

  4. Définir dans la LPVPC ce qui constitue un « intérêt commercial légitime » et le « bien public » en lien avec la collecte, le stockage, l’utilisation, le transfert et la vente de données privées, comme le recommande l’étude parlementaire sur l’utilisation des données sur la mobilité pendant la pandémie de COVID-19.

En outre, étant donné que les technologies émergentes reposant sur des systèmes d’intelligence artificielle (IA) portent gravement atteinte à la vie privée et à de nombreux autres droits de la personne, la LIAD proposée doit être considérablement améliorée. Le gouvernement devrait chercher à établir un cadre réglementaire solide et indépendant en dotant le Commissariat à la protection de la vie privée du Canada de pouvoirs adéquats pour faire appliquer la loi et élaborer une réglementation propre à chaque secteur. De plus, nous avons besoin d’un cadre législatif qui prenne en compte les principaux risques que posent les systèmes algorithmiques pour les droits de la personne. Cela comprendrait, mais sans s’y limiter, le fait d’établir des limites et des lignes directrices claires sur la conception et le développement de systèmes algorithmiques qui :

  1. ont des répercussions sur la santé et les résultats financiers des individus et des communautés;

  2. sont utilisés pour accéder à des services sociaux ou à une aide humanitaire;

  3. sont utilisés pour profiler les gens et influencer le comportement de ces derniers;

  4. utilisent des informations corporelles biométriques ou liées à la santé pour identifier et catégoriser les personnes de manière unique.

Dans un contexte où le projet de loi C-27 est en cours de débat à la Chambre des communes, le gouvernement dispose d’une occasion unique de promulguer un cadre législatif qui non seulement protège la population canadienne contre les préjudices liés au numérique, mais garantit également que les technologies numériques seront développées de façon sécuritaire et équitable.

App Store Governance: Beyond the Duopoly

La gouvernance des boutiques d’applications : Au-delà du duopole

by Vass Bednar

With research assistance from Ciera Stiller

La version française est suivi.

Scroll down for the French translation.

Exploring anti-competitive conduct in and by Shopify’s app store to reconsider ‘app store’ platform governance in a Canadian context

“In an ideal world, everyone would always play fair—but we know that’s not always the case.” – Shopify

Discussions that consider the governance and implications of ‘app stores’ have over-focussed their attention on Apple’s App Store and Google’s Google Play store. The scale and gatekeeping power of these two app stores necessitate attention from policymakers but may act to obscure or prevent regulatory and scholarly exploration of smaller app store ecosystems. Further, there is currently no formal policy debate related to app stores of any kind in Canada, though the federal government is currently consulting on the Future of Competition Policy in Canada.

The lack of debate is disappointing as Canada is ‘home’ to an ‘app store’ of its very own: Shopify’s App Store, which offers over 8,000 apps for merchants to customise their online store. Shopify provides all the digital tools and infrastructure that a brand needs to sell online. Unlike Amazon, Shopify is not a marketplace connecting a brand with consumers and therefore does not commoditize them, but it may tacitly promote deceiving them.

Shopify’s primary fidelity is to merchants, and the firm makes significant efforts to support these merchants in their maximisation of profit. In doing so, the firm may be perpetuating a mix of competition and consumer protection issues that evade regulatory attention due to the unique nature and structure of their app store, its distinctness from the more familiar mobile app duopoly, and the reluctance of Canadian regulators to scrutinise Shopify.

Given that their developer-led apps empower merchants to build online shops, this app ecosystem provides some portion of the digital infrastructure that underpins direct-to-consumer (DTC) e-commerce. Because Shopify’s app store’s primary audience is merchants (and not consumers), some of this digital infrastructure promotes either illusory trust or safety as well as various deceptive designs such as: fake claims of ‘low inventory’ designed to rush the consumer, fake reviews that trick consumers away or toward certain products while over-elevating an app in search, or green-washing apps that purport to contribute carbon offsets but are simply not verifiable, and various other examples.

There are some central questions to ask about Shopify:

  1. In what instances and ways is Shopify’s app store anti-competitive as a platform;

  2. In what instances and ways does Shopify’s app store promote anti-competitive digital infrastructure (apps); thus further complicating the e-commerce marketplace from a governance perspective?

In seeking to answer both of these questions, we should consider whether existing legislation that polices false and misleading advertising in Canada is sufficiently enforced before considering whether and how the platform can or should be held accountable for the compliance of the developer and merchant(s) using the app if they are making claims about trust and subjective apps to a review process. For example, how and when might the consumer be able to detect a false and misleading mobile app that is integrated into the ecommerce website they are navigating.

Shopify makes an explicit commitment to app quality in the Shopify App Store and stipulates that developers must adhere to the terms of the Partner Program Agreement. The explicit commitment to app ‘quality’ is targeted to business owners and not consumers. Shopify may overstate how strict they are with app reviews as to not deceive merchants, yet allow merchants to use apps that can create fake reviews – muddling their claim to uncompromising self-regulation.

There is some evidence that Shopify actively – albeit inconsistently – self-regulates their app store beyond initial review of a developer’s app: in April of 2021 the firm claimed to have “removed over 1.5 percent of apps from the Shopify App Store because they were not meeting our standards of trust and integrity.” However, there does not seem to be a predictable cadence for such reviews.

Other competition issues are also relevant to Shopify’s app store, such as the policy context during which the firm announced that developers would keep the first $1M earned from their apps while reducing the app store’s commission fee from 20% to 15% and asking whether this pricing strategy is disciplinary to competitors. Further, given that apps that are made by Shopify are usually free and are supported by Shopify, whereas apps that are developed by a third-party developer might have a fee associated with them and are supported by the third-party developer,  this contrast could be considered a new form of self-preferencing.

Reminding policy thinkers that there are established and emergent app stores is relevant to future potential considerations related to ‘app stores’ in Canada’s ongoing efforts to improve platform governance for citizens, strengthen consumer protection, and facilitate fair and robust marketplaces. As such, Canadian policymakers should consider the optimal governance and enforcement of other app stores, such as those for augmented reality or metaverses by reminding policy people of alternative app store structures. The findings may also inform deliberations across platform governance conversations about ‘Big Tech’ that considers targeting either anti-competitive business behaviours through traditional antitrust levers or focussing on carving out new legislation that focuses on the largest actors.

Canada recently made initial amendments to the Competition Act that have yet to be tested through case law. Notably, one of these changes clarified that incomplete price disclosure (often referred to as “drip pricing”) is a false or misleading representation independent of market size. Such a designation explicitly focuses on a business activity, and this approach may be fruitful in strengthening Shopify’s app store.

The expansion of abuse of dominance provisions are of particular relevance to platform governance and app stores, as they clarify that an abuse of dominance does not necessarily need to target a competitor – but can. Yet these amendments have yet to be tested through a competition case or case study. Contrasting Shopify’s purported self-regulation of its app store ecosystem with existing laws and global policy proposals is necessary to achieve comprehensive platform governance regimes through the application of appropriate public policy instruments.

Finally, confronting the behaviour and regulation of ‘our’ platforms before or while seeking to impose new regulatory regimes on others could have positive implications for trade-related negotiations that may seek to diffuse digital policy intervention, as it builds credibility.

To date, discussions pertaining to the optimal regulation of ‘app stores’ have focused on ‘front-end’ interventions, and have under-explored how tools from an app store can act to influence the ‘back end’ of online environments.  As Canadian policy makers consider how to operationalize app store governance into law – potentially through comprehensive reforms to Canada’s Competition Act – we must confront the question of what activities on a platform regulators are genuinely interested in targeting through regulatory action, and whether we may already have the tools we need to promote a better online experience while lacking the motivation or resources to do so.


la version française

La gouvernance des boutiques d’applications : Au-delà du duopole

Une exploration des comportements anticoncurrentiels dans et par la boutique d’applications Shopify pour reconsidérer la gouvernance des « boutiques d’applications » dans un contexte canadien.

« Dans un monde idéal, il n’y aurait pas de coup bas — mais nous savons que ce n’est pas toujours le cas. » – Shopify

Dans le cadre du débat autour de la gouvernance et des conséquences reliées aux boutiques d’applications, l’attention a souvent été restreinte à l’App Store d’Apple et au Google Play Store de Google. L’immensité et le pouvoir d’obstruction de ces deux boutiques d’applications demandent l’attention des décideur·euse·s politiques, mais peuvent aussi ombrager les plus petits écosystèmes de boutiques d’applications, leur épargnant ainsi des réglementations et un examen de la part du milieu universitaire. Même qu’il n’y a actuellement pas de débat formel en matière de politiques à propos des boutiques d’applications de quelque nature que ce soit au Canada, et ce bien que le gouvernement fédéral soit présentement en période de consultation quant à l’avenir de la politique de la concurrence au Canada.

L’absence de débat est décevante étant donné que le Canada a sa propre « boutique d’applications » : la boutique d’applications Shopify, qui offre plus de 8 000 applications permettant aux commerçant·e·s de personnaliser leurs boutiques en ligne. Shopify fournit aux marques les outils et l’infrastructure numérique dont elles ont besoin en matière de commerce en ligne. Contrairement à Amazon, le modèle d’affaire de Shopify n’est pas de lier les marques aux consommateur·trice·s et donc Shopify ne les traite pas comme une marchandise, mais peut tout de même tacitement contribuer à les tromper.

Shopify prête avant tout allégeance aux commerçant·e·s, et la firme fait de grands efforts pour aider ces dernier·ère·s à maximiser leurs profits. Ce faisant, la firme pourrait perpétuer un mélange de problèmes reliés à la concurrence et à la protection des consommateur·trice·s qui échappent aux examens réglementaires à cause de l’unicité et de la structure de leur boutique d’applications, distincte du duopole bien connu des applications mobiles, ainsi que la réticence des autorités de réglementation canadiennes d’ausculter Shopify.

Étant donné que leurs applications, fournies par les développeur·euse·s, outillent les commerçant·e·s dans la construction de leurs boutiques en ligne, cet écosystème d’applications compose une portion de l’infrastructure numérique qui sous-tend le cybercommerce direct aux consommateur·trice·s (DAC). Parce que la boutique d’applications Shopify vise les commerçant·e·s et non les consommateur·trice·s, cette infrastructure numérique peut parfois faire la promotion de signaux de confiance ou de sécurité illusoires, ou encore employer diverses tactiques mensongères. On compte parmi celles-ci les fausses alertes de stocks approchant la rupture, censées presser les consommateur·trice·s, ou encore les faux commentaires qui aiguillent les consommateur·trice·s dans la direction de certains produits, tout en donnant à certaines applications une place plus importante dans les recherches ou encore en faisant la promotion d’applications pratiquant l’écoblanchiment. En effet, certaines applications prétendent contribuer à la compensation carbone sans preuve vérifiable. Il y a également de nombreux autres exemples.

Deux questions centrales doivent être posées à propos de Shopify :

  1. À quels égards et dans quels contextes est-ce que la boutique d’applications de Shopify est anticoncurrentielle en tant que plateforme?

  2. À quels égards et dans quels contextes fait-elle la promotion d’une infrastructure numérique nocive pour la concurrence (applis); compliquant davantage le marché du cybercommerce au sens de la gouvernance?

Pour répondre à ces questions, nous devons déterminer si la législation canadienne en place concernant la surveillance des publicités fallacieuses et trompeuses est suffisamment appliquée avant d’évaluer si et comment la plateforme peut ou devrait être tenue responsable de la conformité des développeur·euse·s et des commerçant·e·s utilisant l’application si des allégations de bris de confiance et d’applications impartiales sont soulevées lors d’un processus d’examen. Par exemple, quand et comment est-ce qu’un·e consommateur·trice devrait être capable de discerner une application fallacieuse et trompeuse intégrée dans le site de cybercommerce qu’ils (elles) visitent?

Shopify s’engage ouvertement à assurer la qualité des applications dans la boutique d’applications Shopify et stipule que les développeur·euse·s doivent respecter les conditions du Partner Program Agreement. Cet engagement à fournir des applications de « qualité » s’adresse aux entrepreneur·e·s et non aux consommateur·trice·s. Shopify vante la sévérité du traitement réservé aux faux commentaires à propos des applications pour éviter de tromper les commerçant·e·s, et pourtant permet à ces dernier·ère·s d’utiliser des applications créant de faux commentaires sur leurs produits, ce qui contredit leur propre engagement à une autoréglementation sans compromis.

Au-delà de l’évaluation initiale de l’application d’un·e développeur·euse, Shopify semble autoréglementer activement, mais sans grande régularité, leur boutique d’applications : en avril 2021, l’entreprise a affirmé avoir « retiré plus de 1,5 % des applications de la boutique d’applications Shopify parce qu’elles ne répondaient pas à nos normes de confiance et d’intégrité ». Toutefois, il semblerait qu’il n’y ait pas de périodicité à ces contrôles.

Il y a d’autres problèmes de concurrence reliés à la boutique d’applications de Shopify, comme le contexte stratégique durant lequel la firme a annoncé que les développeur·euse·s garderaient le premier million de dollars gagné de leurs applications tout en réduisant la commission de la boutique de 20 % à 15 %, ce qui soulève la question de savoir si ces tarifs sont disciplinaires pour les concurrent·e·s. De plus, étant donné que les applications que Shopify développe sont d’ordinaire gratuites et prises en charge par la plateforme, tandis que les applications d’une tierce partie peuvent coûter des frais et sont prises en charge par cette tierce partie, ce contraste pourrait être vu comme une forme de traitement préférentiel.

Il faut rappeler aux penseur·se·s stratégiques qu’il existe des boutiques d’applications établies et d’autres émergentes à prendre en compte dans d’éventuelles considérations liées aux boutiques d’applications en ce qui a trait aux efforts actuels du Canada pour améliorer la gouvernance des plateformes pour les citoyen·ne·s, renforcer la protection des consommateur·trice·s et faciliter l’établissement de marchés équitables et robustes. Ainsi, les décideur·euse·s politiques canadien·ne·s devraient envisager les meilleures pratiques en matière de gouvernance et d’application de la loi pour d’autres types de boutiques d’applications, comme celles dédiées à la réalité augmentée ou au métavers. Il faut donc rappeler aux responsables politiques les autres structures de boutiques d’applications possibles. Les découvertes pourraient également venir enrichir le débat entourant la gouvernance des plateformes des géants du Web, que ce soit dans l’application des leviers antitrusts existants aux tactiques d’affaires anticoncurrentielles ou alors dans l’élaboration de nouvelles législations visant les plus gros joueur·euse·s.

Le Canada a récemment effectué des modifications initiales à la Loi sur la concurrence, qui restent à tester en jurisprudence. Notamment, l’un de ces changements a été de préciser qu’une divulgation incomplète d’un tarif (ce qu’on appelle communément les « prix partiels ») est une représentation fallacieuse ou trompeuse indépendamment de l’échelle du marché. Une telle désignation vise ouvertement les activités d’affaires. Cette approche pourrait porter fruit dans la quête d’une boutique d’applications Shopify plus robuste.

Dans le cas de la gouvernance des plateformes et des boutiques d’applications, l’élargissement des dispositions en ce qui a trait à l’abus de position dominante est particulièrement intéressant à cause de la clarification qu’un abus de dominance peut, mais ne doit pas nécessairement, cibler un·e concurrent·e. Mais ces modifications n’ont pas encore été testées dans le cadre d’un cas de concurrence ou d’une étude de cas. Il est nécessaire de mettre en relief l’autoréglementation supposée de l’écosystème de boutique d’applications de Shopify avec la législation existante et les propositions de politiques à l’international pour arriver à un régime complet de gouvernance des plateformes qui s’appuie sur les bons instruments de politique gouvernementale.

Finalement, il peut être intéressant, par souci de crédibilité, de confronter les méthodes de « notre » plateforme et la réglementation qui s’applique à celle-ci avant ou durant nos efforts d’imposer un nouveau régime réglementaire sur d’autres plateformes. Cela pourrait entraîner une incidence positive sur les négociations commerciales, dans le cadre desquelles on pourrait tenter de désamorcer les interventions stratégiques dans la sphère numérique.

Les discussions concernant l’approche optimale de réglementation des boutiques d’applications ont, à ce jour, surtout porté sur des interventions touchant les applications frontales, laissant de côté l’influence que peuvent exercer certains outils des boutiques d’applications du point de vue des applications dorsales au sein d’environnements Web. Puisque les décideur·euse·s canadien·ne·s envisagent différentes approches de mise en œuvre pour légiférer en matière de gouvernance des plateformes, ce qui pourrait se faire par le biais d’importantes réformes à la Loi sur la concurrence du Canada, une question se pose pour la population canadienne. Quelles sont les activités pouvant avoir lieu sur une plateforme que les autorités de réglementation souhaitent réellement cibler par des mesures réglementaires? Disposons-nous déjà des outils nécessaires pour promouvoir une expérience en ligne de meilleure qualité? Manquons-nous simplement de motivation ou de ressources pour réaliser une telle expérience?

Competition Policy as a Lever for Organic Growth and Innovation in Canada

Une politique de la concurrence pour stimuler la croissance organique et l’innovation au Canada

by Keldon Bester

La version française est suivi.

Scroll down for the French translation.

In her lone dissent of the US Federal Trade Commission’s (FTC) 2007 decision to close its investigation of Google’s acquisition of DoubleClick, Commissioner Pamela Jones Harbour noted that it was difficult to believe a company with a market capitalization of over $200 billion, top tier engineering teams, and existing connections with publishers and advertisers would not be able to create its own competitive alternative to DoubleClick’s ad serving platform.

With this statement, Harbour summarized an important but overlooked function of competition and antitrust law: its ability to encourage organic growth and innovation through competing on the merits and investing corporate resources rather than the acquiring potential competitors. By removing mergers and acquisitions that reduce competition as a cheap shortcut to growth, competition policy encourages firms to invest in their own capacities for innovation, preserving and increasing competitive intensity. This argument was also present in the FTC’s unsuccessful bid in 2022 to block Meta’s acquisition of the VR fitness game company Within. The agency stated that the time, talent, and effort required for Meta to create its own competitive offering “reflect the very essence of competition, the dynamic that the antitrust laws seek to protect and promote.” In this way, competition policy not only protects and promotes competitive intensity, but also encourages the kind of competition we wish to see in our economies. By resurrecting its authority over unfair methods of competition at the outset of 2023 the FTC has signaled that a leading competition enforcement agency is taking the shaping of competition seriously.

Instead of promoting this kind of organic growth and innovation, Canada’s competition law, and in particular its merger law, has focused on a narrow interpretation of efficiency to justify removing existing and potential competitors from the market. By disregarding the value of the competitive process rather than fostering competition, Canadian competition law attempts only to make the competitive situation worse at a more acceptable rate.

The outcome of the Rogers-Shaw transaction, a major Canadian telecommunications merger, is just the most recent high-profile example. With a decision from Canada’s Competition Tribunal in the last hours of 2022, the adjudicative body blessed a dominant incumbent’s acquisition of a disruptive competitor on the grounds that the incumbent would support the expansion of a third competitor to replace any lost competitive pressure. Despite admission that at least hundreds of thousands of Canadians would see competition worsen and prices rise, the transaction was allowed to proceed.

In early 2022 the Competition Bureau shed light on these deficiencies in the law, noting that under our current framework it would be “particularly difficult-or even impossible” to block the acquisition of an emerging competitor in dynamic markets. This is particularly problematic in markets with networked structures, where preservation of competition most often contends with the power associated with control of economic bottlenecks. Whether railways, telecoms, or online platforms, barriers to entry and reinforcing feedback loops make monopoly outcomes in these markets more likely and raise the stakes for limiting the power of gatekeepers to suppress the competitive process.

But the consequences of Canada’s focus on a static conception of efficiency is clear in Canada beyond just networked industries. While the profitability of Canadian firms has risen steadily over time, our productivity growth continues to lag international peers. Supported by a competition policy focused on profitability rather than preserving competitive intensity, Canadian firms are insulated from the imperative to invest in innovation that drives productivity growth.

While the current Canadian federal government has spent its tenure attempting to implement a variety of strategies to address this lagging productivity growth, a more robust competition policy has until recently been mostly a curiosity. By investing in competition policy not only as a tool to prevent economic domination but also to promote organic growth and innovation Canada can create a more holistic and effective approach to driving innovation and productivity growth. While Canada can benefit from a greater focus on competition, competition must be understood as part of a broader innovation ecosystem that considers the motivations and incentives of the different drivers of innovation as well as interlocking policy areas such as intellectual property protection.

Innovation-focused competition policy can also complement the guardrails on fair competition that peer jurisdictions such as the EU, UK, and Australia are introducing to rein in the economic power of dominant platforms. By creating obligations on major platforms to reduce their control over economic bottlenecks and promote entry and expansion of competitors, these in-flight regulatory moves have an important role to play in responding to the existing power accumulated by platforms. But a forward-looking competition policy focused on the value of fostering and maintaining dynamic markets is necessary to avoid the current competitive issues in the digital economy simply re-emerging in future iterations of technological and economic change. The time is right for this kind of introspection as the federal government is in the midst of the first formal consultation on the Competition Act in over a decade, initiated as the result of public interest advocacy and Canada’s laggard status in the global policy conversation on the future of competition policy.

Though Canada is moving in the right direction with a comprehensive review of its competition law, there is a real risk that we repeat the mistake of the last four decades of devaluing competition rather than creating a system that fosters organic growth, innovation, and productivity-enhancing investment. But the Canadian government can avoid this mistake by moving quickly to enact a stronger set of competition laws with three key characteristics: a merger enforcement framework that deters harmful mergers and instead incentivizes organic growth through investment, an approach to abuse of dominance that focuses on addressing the harms of monopoly in their incipiency, and a competition authority with the resources and powers to engage in a process of continuous learning as our economy continues to evolve around us.

Encouraging this kind of forward-looking approach to competition policy will be critical to redrawing the balance of power between citizens and platforms we see today, protecting that balance moving forward and ultimately building a more productive economy in which innovation is widely distributed.


la version française

Une politique de la concurrence pour stimuler la croissance organique et l’innovation au Canada

Seule dans sa contestation de la décision de la US Federal Trade Comission (FTC) de clore son enquête sur l’acquisition de DoubleClick par Google en 2007, la commissaire Pamela Jones Harbour a commenté qu’il était dur de croire qu’une compagnie avec une capitalisation boursière de plus de 200 milliards de dollars, une équipe d’ingénieurs au sommet du domaine et un réseau existant de relations avec des publicitaires, ne serait pas capable de créer sa propre plateforme de services publicitaires pour faire concurrence à Doubleclick.

Cette déclaration résume une fonction importante et négligée de la concurrence et de la législation antitrust : cette capacité à encourager la croissance organique et l’innovation en favorisant une concurrence basée sur les mérites et l’investissement de capitaux au lieu d’acheter les concurrents potentiels.  En éliminant les fusions et acquisitions qui réduisent la concurrence pour se pourvoir d’une croissance facile, les politiques de la concurrence encouragent les entreprises à investir dans l’innovation pour préserver et accroître leur avantage concurrentiel. On retrouve le même argument dans la tentative infructueuse du FTC de court-circuiter l’acquisition de la compagnie de jeux sportifs en réalité virtuelle Within par Meta, en 2022. L’agence a déclaré que pour Meta, le temps, le talent et les efforts nécessaires à créer sa propre entreprise rivale « reflète l’essence même de la concurrence, la dynamique que la législation antitrust cherche à protéger et promouvoir. » Ainsi, les politiques de concurrence protègent et promeuvent l’intensité concurrentielle et, de plus, encouragent précisément le genre de concurrence qui est bénéfique aux économies. En ressuscitant son autorité sur les pratiques de concurrence déloyale, au début de 2023, le FTC a indiqué qu’une agence de pointe en application de la législation sur la concurrence prenait au sérieux la bonne conduite de la concurrence.

Au lieu de promouvoir ce genre de croissance et d’innovation organiques, la législation canadienne sur la concurrence, et particulièrement celle sur les fusions, s’appuie sur une interprétation étroite de l’efficience pour justifier l’extermination des concurrents potentiels du marché. La législation canadienne sur la concurrence, par le manque d’égards qu’elle porte au processus concurrentiel, ne tente que de ralentir à un niveau acceptable le rythme de dégradation de la situation concurrentielle.

Le résultat de la transaction Rogers-Shaw, une fusion de géants de la télécommunication canadienne, est un exemple récent notoire. Par une décision dans les dernières heures de 2022 du Tribunal de la concurrence canadien, l’organisme juridictionnel a approuvé l’acquisition d’un concurrent perturbateur par un conglomérat dominant en s’appuyant sur le fait que l’acheteur soutiendrait l’expansion d’un troisième concurrent pour remplacer toute pression concurrentielle perdue. Malgré l’aveu que des centaines de milliers de Canadien·ne·s verraient la concurrence des offres diminuer et leurs prix grimper, la transaction a été approuvée.

Le Bureau de la concurrence a dévoilé les faiblesses de la loi au début de 2022, notant que le cadre actuel rendait « particulièrement difficile, si ce n’est impossible » d’empêcher l’acquisition d’un concurrent émergent dans un marché dynamique. C’est une situation particulièrement délétère aux marchés qui comportent des industries de réseaux, où la préservation de la concurrence entre souvent en conflit avec le pouvoir obtenu par le contrôle de secteurs économiques cruciaux. Que ce soit les chemins de fer, les télécommunications ou les plateformes en ligne, la possibilité d’un monopole dans ces marchés est augmentée par des mécanismes de renforcement et des barrières à l’entrée, d’où l’importance de mettre des freins aux entreprises dominantes qui briment le processus concurrentiel.

Les conséquences de la conception canadienne, statique et réductrice, de l’efficience sont claires au-delà des industries de réseaux. On observe une hausse constante de la profitabilité des entreprises  canadiennes alors que la croissance de notre productivité est en retard sur nos pairs au niveau international. Avec sa politique de la concurrence qui priorise la profitabilité avant l’intensité concurrentielle, le Canada étouffe le besoin des grandes entreprises d’investir dans les innovations qui mènent à une croissance de la productivité.

Si le gouvernement canadien actuel a tenté tout au long de son mandat d’implanter une gamme de stratégies pour redresser la croissance léthargique de sa productivité, ils n’ont pas considéré sérieusement de plus strictes politiques de concurrence jusqu’à tout récemment. Une politique de concurrence est un outil utile pour empêcher la domination économique autant que pour stimuler l’innovation et la croissance organique, permettant une méthode holistique et efficace d’encourager l’innovation et la croissance de la productivité au Canada.  Bien que le Canada pourrait tirer profit d’une approche réglementaire en faveur de la concurrence, celle-ci doit être considérée au cœur d’un écosystème novateur où s’entremêlent les motivations et incitatifs à l’innovation divers, en plus de champs politiques interreliés tels que la protection de la propriété intellectuelle.

Une politique de la concurrence axée sur l’innovation peut s’agencer avec les mesures protectrices de l’équité concurrentielle que des juridictions semblables comme l’EU, le Royaume-Uni et l’Australie ont introduites pour freiner le pouvoir économique des plateformes dominantes. En créant des obligations pour les plateformes majeures de réduire leur emprise sur les secteurs économiques cruciaux et de promouvoir l’accès au marché et l’expansion des compétiteurs, les règlementations en vigueur jouent un rôle important pour contrebalancer le pouvoir accumulé par les plateformes. Mais il est également nécessaire d’instaurer des politiques de concurrence visant l’encouragement et le maintien des forces du marché pour empêcher les problèmes de concurrence actuels de l’économie numérique de renaître dans un paradigme technologique futur.  Ce genre d’introspection tombe à point pour le gouvernement fédéral, alors qu’il est au cœur de la première consultation formelle sur la loi sur la concurrence en plus de dix ans, le résultat de plaidoyers d’intérêt public et du retard du Canada vis-à-vis de la conversation politique ailleurs dans le monde à propos des politiques de concurrence.

En choisissant de reconsidérer l’entièreté de ses lois sur la concurrence, le Canada est sur la bonne voie, mais le pays risque de répéter les erreurs des quatre dernières décennies en dévalorisant la concurrence au lieu d’instaurer un système qui encourage la croissance organique, l’innovation, et les investissements bénéfiques à la productivité. Le gouvernement canadien peut éviter cette embûche en agissant rapidement pour mettre en place une féroce législation de concurrence comportant trois caractéristiques clés : un cadre réglementaire des fusions qui nuit aux fusions nocives et encourage plutôt l’investissement pour une croissance organique, une ligne de conduite face aux abus des dominants qui aborde les dommages des monopoles dès leurs débuts, et des autorités en matière de concurrence possédant les ressources et pouvoirs nécessaires à un processus continuel d’adaptation aux réalités économiques qui nous entourent.

Encourager une politique de la concurrence axée vers l’avenir sera crucial pour redéfinir l’équilibre des forces entre les citoyen·ne·s et les plateformes actuelles, protéger cet équilibre à l’avenir et ultimement avancer vers une économie plus productive qui voit l’innovation distribuée à tou·te·s.