Municipal Matters: Building Capacity for Local Climate Conversations

Municipal Matters: Building Capacity for Local Climate Conversations

Over 70% of global greenhouse gas emissions are produced in urban areas, making local climate leadership critical. Since the 1990s, local government policies have advanced climate action, but today’s complex information environment poses increasing obstacles to the development and impact of local climate policies.

This report examines the challenges of communication around local climate action—especially when local policies face the spread of false or misleading information, whether intentional (disinformation) or unintentional (misinformation). We examine the actors involved, techniques used, and the impacts on policy development and implementation, and we propose a framework for local governments to respond.

Ultimately, we argue that robust communications around climate must go beyond providing accurate information, and should aim to promote public trust, foster dialogue with communities, and address their genuine concerns. Local governments must pair effective policymaking with proactive communication at every stage of climate policy development.

Local governments, working with communities, businesses, and civil society groups, have often taken the lead on tackling climate change. Now, they must do the same to build better climate conversations.

Report Credits

Authors: Divija Madhani, Ghassan Hamzeh, Madalen Sides, Nicolas Côté, Chris Tenove, Heidi Tworek
Additional Research: Nishtha Gupta, Mark Shakespear

Report Design: Oliver McPartlin
Graphic Design: Divija Madhani

Additional acknowledgments are available in the report.

Citation: Madhani, D., Hamzeh, G., Sides, M., Côté, N., Tenove, C., Tworek, H. (2025). Municipal Matters: Building Capacity for Local Climate Conversations. Vancouver: Centre for the Study of Democratic Institutions, University of British Columbia.

Publication info: Copyright © 2025; Centre for the Study of Democratic Institutions; University of British Columbia. This work is licensed under CC BY-NC-ND 4.0 (creativecommons.org/licenses/by-nc-nd/4.0).

Research

CSDI’s research activities currently focus on two themes: platforms and media, and health.

News & Events

Stay up to date with CSDI by viewing our recent news and upcoming events.

About CSDI

Learn more about the Centre for the Study of Democratic Institutions

News

Stay up to date with CSDI by viewing our recent news.

Global Journalism Innovation Lab

The Centre for the Study of Democratic Institution’s contribution to the Global Journalism Innovation Lab (GJIL) focuses on the history of journalistic innovation and media policy. The team is exploring what earlier attempts to reach a wide audience using explanatory journalism have taught us; and, based on past experience, how policy can better support forms of evidence based journalism. The research moves through three sequential stages:

  1. How new communication modes cultivated new genres of explanatory content.
  2. How the historical evolution of intellectual property law first fostered, then effectively abolished the republishing of journalistic content.
  3. How new forms of explanatory journalism in the past, like investigative journalism, affected civic engagement, public understanding of issues, and public policy.

GJIL is supported by a SSHRC Partnership Grant.

Non-aligned News Research Partnership

The Non-Aligned News Research Partnership (NANReP) examines the largest organized intervention against the racial structure of global news to date: the Non-Aligned News Agencies Pool (NANAP, 1974-1990s).

NANReP’s international partnership spans three continents and seven countries to bring together historians, public policy analysts, digital humanists, journalists, archivists, communications scholars, and students, as well as an international organization, public institutions of higher education, and a private-sector agency. Funded by a 3-year (2022-25) Partnership Development Grant from the Social Science and Humanities Research Council of Canada (Project Director: Dr. Maurice Jr. Labelle) and based at the University of Saskatchewan, NANReP’s partners include: the UNESCO Archives, the Afro-Asian Networks Research Collective, the University of British Columbia’s Centre for the Study of Democratic Institutions, the University of Toronto’s Department of History, Resonator Agency Inc., and the University of Saskatchewan’s Historical Geographic Information Systems Lab.

Seeing the world through the eyes of Western news agencies troubled Third World communities and their supporters. Anti-imperial intellectuals, statesmen, and activists identified that news flows about – and in – the Third World were imbalanced, insufficient, underdeveloped, and racialized. Established in 1974 with the support of UNESCO, the Non-Aligned Movement organization, and some of their key member-states (such as India, Yugoslavia, Cuba, Egypt, Ghana, and Indonesia), NANAP aimed to decolonize world news – a domain created by Western empires and racially-maintained by Western news agencies. Integral to NANAP’s early years was UNESCO’s 1978 declaration of a New World Information and Communications Order (NWICO), which called for the “decolonization of information” monopolized by the “Big Four”: Associated Press, Reuters, United Press International, and Agence France-Presse. Often ignored or forgotten since its dissolution in the mid-1990s, NANAP enabled free and open exchange between over forty national news agencies in Africa, Asia, the Middle East, Latin America, and Europe.

NANReP’s goal is to analyze the formation, structure, operations, experiences, impacts, and legacies of NANAP as an international cooperative of news agencies predominantly from the Third World. In the process, NANReP seeks to shed new light on challenges surrounding systemic barriers in global news-making, the racial realities of international information networks, and anti-racist efforts to change media infrastructures in ways that amplify the voices and stories of marginalized peoples at home and abroad.

NANReP is supported by a SSHRC Partnership Development Grant.

Platform Governance in Canada: Essay Series

Série de rédactions

La version française est suivi.

Scroll down for the French translation.

While encouraging, the emerging discourse in academia and public policy on platform governance too often remains siloed by topic. Research and policy also remain largely disconnected. Here, we offer an introduction and set of 16 short pieces to address these two issues.

These pieces arrive at a timely moment in Canadian platform governance. Bills on content such as C-11 or C-18 have probably grabbed the most headlines. As has the government’s process of consultation on a potential online safety bill. So too much scholarship has focused on content topics, female Muslim politicians and political candidates more broadly, connected citizenship in Canada, and the origins of misinformation on Twitter. Elections have provided a particular focal point as did the infodemic during Covid-19.

But there is activity on many more fronts, including the Artificial Intelligence and Data Act (AIDA), potential online safety legislation, and reforms to the Competition Act starting with C-19 passed in June 2022. As the Canadian government undertakes a platform governance agenda, we need an overarching and synthetic framework to fit all these bills and regulatory efforts together.

This collection of pieces proposes one approach. Our framework suggests four interlinked domains of platform governance: content, data, competition, and infrastructure. While a knowledge base already exists in Canada on these four domains, it is lacking in some areas and is often not connected across these four areas.

This essay series has been jointly published by the Centre for Media, Technology, and Democracy at McGill University and the Centre for the Study of Democratic Institutions (CSDI) at the University of British Columbia (UBC). You can also read the series on the website of the Centre for Media, Technology, and Democracy at McGill University here.

The pieces in this collection are available in English and French. You can scroll down within each piece to access the French version.

You can also download the English collection of essays here: Platform Governance in Canada – Essay Series

This project has been made possible in part by the Government of Canada.

Ce projet a été rendu possible en partie grâce au gouvernement du Canada.

 

La gouvernance des plateformes : Série de rédactions

Bien qu’encourageant, le discours émergeant dans le milieu de la recherche et les politiques publiques sur la gouvernance des plateformes reste trop souvent cloisonné par sujet. Les milieux de la recherche et de la politique restent également largement déconnectés. Nous souhaitons donc proposer un ensemble de 16 articles courts pour répondre à ces deux problèmes.

Ces articles arrivent à point nommé pour aborder les questions relatives à la gouvernance des plateformes au Canada. Les projets de loi C-11 ou C-18 sur le contenu ne sont pas passés inaperçus dans la presse. Il en va de même pour le processus de consultation du gouvernement sur un éventuel projet de loi sur la sécurité en ligne. Trop d’études se sont donc concentrées sur la question du contenu, les politiciennes musulmanes et les candidat·e·s politiques en général, la citoyenneté connectée au Canada et les origines de la désinformation sur Twitter. Les élections constituaient également un point central, tout comme l’infodémie pendant la Covid-19.

De nombreuses mesures ont également été prises, dont la loi sur l’intelligence artificielle et les données (LIAD, en anglais : AIDA), la législation potentielle sur la sécurité en ligne et les réformes de la Loi sur la concurrence, à commencer par le projet de loi C-19 adopté en juin 2022. Alors que le gouvernement canadien entreprend un programme de gouvernance des plateformes, il est nécessaire de définir un cadre global et synthétique pour intégrer tous ces projets de loi et efforts réglementaires.

Notre cadre propose quatre domaines interconnectés de gouvernance des plateformes : le contenu, les données, la concurrence et l’infrastructure. Bien qu’il existe déjà une base de connaissances au Canada sur ces quatre domaines, ces derniers sont rarement interconnectés, et les données parfois insuffisantes.

Cette série des redactions a été publiée conjointement par le Centre pour les médias, la technologie et la démocratie à  l’Université McGill et le Centre d’étude des institutions démocratiques (CSDI) à l’Université de la Colombie-Britannique (UBC). Vous pouvez également lire la série sur le site Web du Centre pour les médias, la technologie et la démocratie de l’Université McGill ici.

Les pièces de cette collection sont disponibles en anglais et en français. Vous pouvez défiler vers le bas dans chaque pièce pour lire la version française. 

Vous pouvez télécharger la série de rédactions en français ici: La gouvernance des plateformes – Série de rédactions

This project has been made possible in part by the Government of Canada.

Ce projet a été rendu possible en partie grâce au gouvernement du Canada.

Authors/ Auteurs

Introduction

About the Series: Platform Governance in Canada/
À propos de la série: La gouvernance des plateformes au Canada

 

by Heidi Tworek and Taylor Owen

La version française est suivi.

Scroll down for the French translation.

The internet has created enormous social, political, and economic benefits over the past 30 years. However, these benefits have also come at considerable costs. This current phase of the internet has seen the growth and consolidation of a few global platform companies over the past 15 years. The harms attributed to platforms include election interference, harmful and hate speech, as well as mis- and disinformation. These harms are thwarting the aims of building stronger and more inclusive communities and promoting a safe environment for Canadians to experience diverse cultural expressions.

There is growing attention to these issues and increasing regulatory actions around the world. Governments have started to test strategies to govern the digital public sphere, converging on what scholars call a platform governance agenda. Nonprofits like the Internet Archive continue to work on a vision for a public interest internet. Meanwhile, scholars have begun to articulate an interdisciplinary approach to platforms’ role in society, and how domestic and international governance regimes might respond. This includes disciplines such as communications, media studies, history, law, computer science, psychology, political science, public policy, journalism, and sociology.

While encouraging, the emerging discourse in academia and public policy on platform governance too often remains siloed by topic. Research and policy also remain largely disconnected. Here, we offer a set of 16 short pieces to address these two issues.

These pieces arrive at a timely moment in Canadian platform governance. Bills on content such as C-11 or C-18 have probably grabbed the most headlines. As has the government’s process of consultation on a potential online safety bill. So too much scholarship has focused on content topics, female Muslim politicians and political candidates more broadly , connected citizenship in Canada, and the origins of misinformation on Twitter. Elections have provided a particular focal point as did the infodemic during Covid-19.

But there is activity on many more fronts, including the Artificial Intelligence and Data Act (AIDA), potential online safety legislation, and reforms to the Competition Act starting with C-19 passed in June 2022. As the Canadian government undertakes a platform governance agenda , we need an overarching and synthetic framework to fit all these bills and regulatory efforts together.

This collection of pieces applies to the Canadian context a framework for understanding and implementing global platform governance developed by Nanjala Nyabola, Taylor Owen, and Heidi Tworek in 2021-22. This systemic approach is vital to address the range of problems in this space and to identify the full suite of possible solutions.

Our framework suggests four interlinked domains of platform governance: content, data, competition, and infrastructure. While a knowledge base already exists in Canada on these four domains, it is lacking in some areas and is often not connected across these four areas.

Content : The highest priority problems concerning the negative impact of disinformation, violent extremism, and hate speech are content-related. Platform companies have struggled to moderate this content, settling for deletion or down-ranking visibility in the automated curation of social media feeds. As these problems often attract the most public attention, we have included six briefs to tackle different aspects of content regulation ranging from social media influencers during elections (Elizabeth Dubois) and online harms regulation (Emily Laidlaw) to Canadians’ beliefs about regulating private messaging services (Sam Andrey) and the role of chilling effects (Jon Penney). Multiple pieces address current legislative efforts such as C-11, the Online Streaming Act (Robyn Caplan), and C-18, a bill about how online platforms might compensate news organizations for content (Vivek Krishnamurthy).

Data : While content-focused policies attract the most attention, data too is high on the agenda with discussion around AIDA. Work on data has examined topics including PIPEDA and AI governance, human rights and data protection, Indigenous data sovereignty. At the same time as we grapple with improving AIDA (Christelle Tessono), other pieces consider new approaches to data in general, whether around definitions of public/private (Wendy Chun and Prem Sylvester) or arguing for a new concept of “human-derived data” (Teresa Scassa).

Competition : The unprecedented scale of the digital platform economy has created new questions around how to regulate markets. While the European Union, for example, passed a Digital Markets Act in July 2022, more work is needed to understand the possibilities and potential effects in Canada, particularly as the Competition Act enters into the second stage of reform in the next year. This moment offers new chances to spur innovation (Keldon Bester) or rethink the right approach to competition and platforms (Jennifer Quaid), while also remembering to ballotize Canadian companies like Shopify (Vass Bednar). Only two peer-reviewed articles seem to exist on Shopify, for example. One was written by German researchers based in Germany and did not examine the platform from a Canadian perspective. The second by researchers in Pakistan looks at Shopify app reviews.

Infrastructure : The platform ecosystem is built on communications, computational, energy, and human infrastructure. Work on infrastructure in Canada has already considered the digital divide for rural Indigenous communities, Huawei and the geopolitics of internet infrastructure, and Sidewalk Labs’ Quayside Project. Yet, there are many more aspects of infrastructure. ChatGPT and generative AI have shown how companies can use and potentially abuse current infrastructures and legal regimes underpinning underlying available online content (Rob Hunt and Fenwick McKelvey). Infrastructure shows how platforms are intertwined with a far broader governance space, including labor rights (Eric Tucker), geopolitics (Blayne Haggart), the Internet of Things, and the environment (Sonja Solomun).

Rather than suggesting a silver bullet from any one policy, these 16 pieces explore different aspects of platform governance to understand how these different aspects work together, how they can be advanced in unison, and to tease out recommendations specifically for Canada. This is particularly crucial as the Canadian government is currently legislating on so many aspects of the platform governance agenda. These pieces will hopefully help to ensure that any governance agenda accounts for the full range of issues around platforms and considers a systemic approach to governing platforms.

This project has been made possible in part by the Government of Canada. We would like to thank the Internet Archive Canada for generously hosting a workshop in Vancouver in February 2023 where we discussed drafts of these pieces. Thank you also to Kshitij Sharan and Rebecca Monnerat for help with organizing the workshop. We also thank Chris Tenove for his contribution and help during the workshop.


la version française

À propos de la série: La gouvernance des plateformes au Canada

L’Internet a apporté d’énormes avantages sociaux, politiques et économiques ces 30 dernières années. Toutefois, ces avantages ont également entraîné des coûts considérables. La phase actuelle de l’Internet a vu la croissance et la consolidation de quelques entreprises de plateformes mondiales au cours des 15 dernières années. Les préjudices attribués aux plateformes comprennent l’ingérence dans les élections, les discours nuisibles et haineux, ainsi que la désinformation. Ces préjudices vont à l’encontre des objectifs de construction de communautés plus fortes et plus inclusives et de promotion d’un environnement sûr permettant aux Canadien·ne·s de faire l’expérience d’expressions culturelles diverses.

Ces questions font l’objet d’une attention croissante et les mesures réglementaires se multiplient dans le monde entier. Les gouvernements ont commencé à tester des stratégies pour gouverner la sphère publique numérique, convergeant vers ce que les spécialistes appellent un programme de gouvernance des plateformes. Des organisations à but non lucratif telles que l’Internet Archive continuent de travailler sur une vision de l’Internet d’intérêt public. En même temps, les chercheurs ont commencé à définir une approche interdisciplinaire du rôle des plateformes dans la société et de la manière dont les régimes de gouvernance nationaux et internationaux pourraient y répondre. Les recherches s’intéressent à des disciplines telles que la communication, l’étude des médias, l’histoire, le droit, l’informatique, la psychologie, la science politique, la politique publique, le journalisme et la sociologie

Bien qu’encourageant, le discours émergeant dans le milieu de la recherche et les politiques publiques sur la gouvernance des plateformes reste trop souvent cloisonné par sujet. Les milieux de la recherche et de la politique restent également largement déconnectés. Nous souhaitons donc proposer un ensemble de 16 articles courts pour répondre à ces deux problèmes.

Ces articles arrivent à point nommé pour aborder les questions relatives à la gouvernance des plateformes au Canada. Les projets de loi C-11 ou C-18 sur le contenu ne sont pas passés inaperçus dans la presse. Il en va de même pour le processus de consultation du gouvernement sur un éventuel projet de loi sur la sécurité en ligne. Trop d’études se sont donc concentrées sur la question du contenu, les politiciennes musulmanes et les candidat·e·s politiques en général, la citoyenneté connectée au Canada et les origines de la désinformation sur Twitter. Les élections constituaient également un point central, tout comme l’infodémie pendant la Covid-19.

De nombreuses mesures ont également été prises, dont la loi sur l’intelligence artificielle et les données (LIAD, en anglais : AIDA), la législation potentielle sur la sécurité en ligne et les réformes de la Loi sur la concurrence, à commencer par le projet de loi C-19 adopté en juin 2022. Alors que le gouvernement canadien entreprend un programme de gouvernance des plateformes, il est nécessaire de définir un cadre global et synthétique pour intégrer tous ces projets de loi et efforts réglementaires.

Cette sélection d’articles applique au contexte canadien un cadre de compréhension et de mise en œuvre de la gouvernance mondiale des plateformes développé par Nanjala Nyabola, Taylor Owen et Heidi Tworek en 2021-2022. Cette approche systémique est essentielle pour aborder l’éventail des problèmes dans cet espace et pour déterminer l’ensemble des solutions possibles.

Notre cadre propose quatre domaines interconnectés de gouvernance des plateformes : le contenu, les données, la concurrence et l’infrastructure. Bien qu’il existe déjà une base de connaissances au Canada sur ces quatre domaines, ces derniers sont rarement interconnectés, et les données parfois insuffisantes. 

Le contenu : Les problèmes prioritaires concernant les conséquences négatives de la désinformation, de l’extrémisme violent et des discours haineux liés au contenu. Les entreprises de plateformes ont eu des difficultés à modérer ces contenus, se contentant de les supprimer ou d’en réduire la visibilité dans l’édition automatisée des flux de médias sociaux. Comme ces problèmes attirent souvent l’attention du public, nous avons inclus six mémoires qui abordent différents aspects de la réglementation du contenu, allant des influenceur·euse·s des médias sociaux pendant les élections (Elizabeth Dubois) et de la réglementation des préjudices en ligne (Emily Laidlaw) aux croyances des Canadien·ne·s sur la réglementation des services de messagerie privée (Sam Andrey) et au rôle de l’effet paralysant (Jon Penney). Plusieurs articles traitent des efforts législatifs actuels tels que le projet de loi C-11 sur la diffusion continue en ligne (Robyn Caplan), et le projet de loi C-18 sur la manière dont les plateformes en ligne pourraient rémunérer les organismes de presse pour leur contenu (Vivek Krishnamurthy).

Les données : Si les politiques axées sur le contenu attirent le plus l’attention, les données sont aussi au centre des discussions concernant la LIAD. Les recherches portant sur les données ont abordé, entre autres, la Loi sur la protection des renseignements personnels et les documents électroniques (LPRDE, en anglais : PIPEDA) et la gouvernance de l’IAles droits de la personne et la protection des données, et la souveraineté des données des Premières Nations. Alors que nous nous efforçons d’améliorer la LIAD (Christelle Tessono), d’autres articles envisagent de nouvelles approches des données en général, qu’il s’agisse des définitions des sphères publique et privée (Wendy Chun et Prem Sylvester) ou du plaidoyer en faveur d’un nouveau concept de « données d’origine humaine » (Teresa Scassa).

La concurrence: L’ampleur sans précédent que prend l’économie des plateformes numériques soulève de nouvelles questions sur la manière de réglementer les marchés. Alors que l’Union européenne, par exemple, a adopté une législation sur les marchés numériques en juillet 2022, des travaux supplémentaires sont nécessaires pour comprendre les possibilités et les effets potentiels au Canada, en particulier lorsque la Loi sur la concurrence entrera dans la deuxième phase de la réforme au cours de l’année prochaine. Ce moment offre de nouvelles occasions de stimuler l’innovation (Keldon Bester) ou de repenser la bonne approche de la concurrence et des plateformes (Jennifer Quaid), sans oublier toutefois d’examiner de près des entreprises canadiennes comme Shopify (Vass Bednar). Seuls deux articles évalués par des pairs semblent exister sur Shopify, par exemple. L’un de ces articles a été rédigé par des chercheur·euse·s allemand·e·s basé·e·s en Allemagne et n’a pas examiné la plateforme d’un point de vue canadien. Le second article, rédigé par des chercheur·euse·s pakistanais·e·s, se penche sur les évaluations de l’application Shopify.

L’infrastructure : L’écosystème de la plateforme repose sur des infrastructures de communication, de calcul, d’énergie et humaines. Les recherches sur les infrastructures au Canada ont déjà abordé des sujets comme la fracture numérique dans les communautés rurales autochtonesHuawei et la géopolitique de l’infrastructure d’Internet, ainsi que le projet Quayside de Sidewalk Labs. Mais l’infrastructure comporte bien d’autres aspects. L’apparition de ChatGPT et de l’IA générative a permis de démontrer comment les entreprises peuvent utiliser et potentiellement abuser des infrastructures actuelles et des régimes juridiques qui sous-tendent le contenu en ligne disponible (Rob Hunt et Fenwick McKelvey). L’infrastructure montre comment les plateformes sont liées à un espace de gouvernance beaucoup plus large, comprenant les droits du travail (Eric Tucker), la géopolitique (Blayne Haggart), l’Internet des objets et l’environnement (Sonja Solomun).

Plutôt que de proposer une solution miracle à partir d’une seule politique, ces 16 articles explorent différents aspects de la gouvernance des plateformes afin de comprendre comment ils fonctionnent ensemble et comment ils peuvent évoluer ensemble, et de dégager des recommandations spécifiques pour le Canada. Ce dernier objectif est particulièrement crucial, car le gouvernement canadien légifère actuellement sur de nombreux aspects du programme de gouvernance des plateformes. Ces éléments contribueront, nous l’espérons, à faire en sorte que tout programme de gouvernance tienne compte de l’ensemble des questions relatives aux plateformes et envisage une approche systémique de la gouvernance des plateformes.

Ce projet a été rendu possible en partie grâce au gouvernement du Canada. Nous tenons à remercier Internet Archive Canada d’avoir généreusement organisé un atelier à Vancouver en février 2023, au cours duquel nous avons discuté des versions préliminaires de ces documents. Nous remercions également Kshitij Sharan et Rebecca Monnerat d’avoir aidé à organiser cet atelier. Nous remercions également Chris Tenove pour sa contribution et son aide pendant l’atelier.

 

The Role of Private Online Spaces in Platform Governance

Le rôle des espaces Web privés dans la gouvernance des plateformes

by Sam Andrey

La version française est suivi.

Scroll down for the French translation.

Defining the scope of platform governance has become a pressing policy challenge for countries around the world, as the spread of illegal and harmful content continues to be exacerbated and amplified on both public and private platforms. In the absence of meaningful regulation in most jurisdictions, the crucial task of balancing the right to free expression and the mitigation of real and growing harms from ill-intended actors has fallen to a small number of companies who have largely consolidated and privatized online discourse. These companies are almost all based outside of Canada and have ad-based business models that can discourage taking meaningful action to reduce certain harms.

Canadians report relatively frequent exposure to hate speech and harassment on public and private online platforms, with rates higher for racialized people, those who have a disability, and those who identity as LGBTQ2S+. Public safety actors and victim groups are calling for stronger accountability for removal of illegal online content, including incitement of violence and suicide, terrorist content, sexual exploitation and identity fraud. There are also growing concerns about the online spread of conspiratorial misinformation and its contribution to polarization, radicalization and undermining of Canada’s democratic processes, both through organic reach and foreign influence operations. But private spaces present particular problems, which this brief explores.

Beginning in 2021, Canadian Heritage embarked on various consultations on the potential design of a regulatory framework to address online safety concerns — including roundtables, a citizens’ assembly, and an expert advisory group. This process has given the country a chance to learn from other existing policies. For example, critics of Germany’s NetzDG regulation have noted the law’s lack of specificity in guidance for platforms, providing too much discretion and leaving room for over-compliance without sufficient oversight. The delay has provided the space for Canada to shift from an exclusive focus on a 24-hour harmful content takedown approach to a more adaptable regulatory model that emphasizes platforms’ duty to act responsibly and transparently review and mitigate systemic risks to users, with similar models being advanced in Australia, the EU, and UK. Sharing learnings and coordination across democratic states striving to responsibly address harmful content and protect freedom of expression will be crucial to maintaining public support and exerting sufficient pressure on large platforms that would be difficult for Canada to achieve alone, particularly with respect to changes that directly impact business models.

A particularly contentious element of platform governance is deciding which platforms and services will be subject to regulatory oversight. The Government of Canada previously expressed that it intends to exclude from regulation “services that enable persons to engage only in private communications.” Making a distinction between public and private communications in the regulation of speech is of course not new. For example, the Criminal Code makes it an indictable offence to communicate statements that willfully promote hatred against an identifiable group “other than in private conversation.”

How to make such a distinction in closed online spaces that blur boundaries between private and public is a complex challenge. There are legitimate concerns about the proliferation of illegal content on private online platforms. For example, 26% of Canadians in a 2020 survey reported receiving messages containing hate speech at least monthly on private messaging platforms, with rates higher among people of colour. An estimated 70% of reports of child sexual abuse on Facebook are through private messages on Messenger or Instagram. After the U.S. Capitol riots and the truckers’ convoy in Canada, concerns were raised about the role of private groups and messaging in seeding and coordinating the events.

Some private platforms, such as those run by Meta, have taken some steps to address harmful online content within private messaging, such as enabling users to report harmful content to moderators, introducing labels and limits on message forwarding to create friction for messages to go ‘viral’, and encouraging users to verify highly forwarded message content. Other private platforms, such as Signal or Telegram, have designed their platforms with less oversight and moderation, including much larger maximum group sizes (up to 200,000 users in the case of Telegram, compared to 250 on Messenger/Instagram).

Allied jurisdictions have taken a variety of regulatory approaches to the inclusion of private content (e.g., private profiles, groups, channels and direct messages). Australia’s Online Safety Act enables the eSafety Commissioner to regulate the removal of “cyberbullying” material on all private platforms. The EU’s Digital Services Act requires only private platforms with significant user reach, such as Messenger, to enable users to report harmful content and have it reviewed, as well as annual transparency reporting requirements, but does not provide independent oversight over content. In an effort to combat child sexual abuse material (CSAM), the EU has also proposed obligations for platforms to screen private communications to detect related harmful content. The UK’s proposed approach likewise proposes to enable content scanning of private content for terrorist and child abuse, though excludes emails and SMS/MMS messages. Both of these proposed approaches to screen private communications have been criticized with fears surrounding the weakening or breaking of end-to-end encrypted messaging, leading to potentially compromised private communications and, in turn, rights to privacy and free expression.

While policy-making that seeks to reasonably balance competing rights should never merely be subject to majority opinion, the political context for action in this space is a critical dynamic. The very nature of large online platforms means that state regulation could affect most Canadians. So it is worth highlighting evidence from representative public surveys conducted by our team over the last four years (alongside others) that suggest a significant majority of Canadians distrust online platforms and are supportive of platform governance efforts and the timely removal of illegal online content in Canada. As an example, when asked to choose between a set of statements on balancing rights, about two-thirds of Canadians indicated preference for intervention (see figure below). While those on the left and centre of the political spectrum have significantly higher average levels of support for intervention, a majority of those on the right of the political spectrum still support intervention.

When asked specifically about which types of online spaces they thought should be required to remove illegal content like hate speech or the promotion of violence, a significant majority of 87% supported content moderation on public pages/profiles, while smaller majorities supported it for private groups (61%) and private pages/profiles (59%). Support fell to 40% for private messaging.

Canada should take inspiration from the EU’s Digital Services Act and place minimum standards on messaging platforms with significant user reach in Canada, such as reviewing their systemic risks, having user reporting features, and providing transparency reports. Such an approach would still enable harm reduction, promote greater understanding of online harms on these channels to inform future action, and mitigate the risk of an incentive for companies to create more closed platforms as a means of avoiding new content moderation obligations, without imposing content scanning requirements or weakening encryption. Lessons should also be learned from past efforts to regulate and monitor harms in private communications, such as Canada’s Anti-Spam Legislation, National Do Not Call List, and regulations against knowingly sending false electronic messages through Canada’s Competition Act.

Mounting evidence suggests a majority of Canadians are prepared for regulatory action to address the rise in harmful online content. Doing so in a way that is sensitive to the different forms of private online spaces, and respects the unique role of direct messaging, will go a long way in maintaining public support and confidence.


la version française

Le rôle des espaces Web privés dans la gouvernance des plateformes

La définition du champ d’application de la gouvernance des plateformes représente aujourd’hui un défi politique pressant pour les pays du monde entier. En effet, la diffusion de contenu illégal et néfaste continue de s’exacerber et de s’amplifier sur les plateformes publiques et privées. En l’absence de réglementation significative dans la plupart des territoires, la tâche cruciale consistant à trouver un équilibre entre le droit à la liberté d’expression et l’atténuation de préjudices réels et croissants causés par des acteur·trice·s mal intentionné·e·s a été confiée à un petit nombre d’entreprises qui ont largement consolidé et privatisé le discours sur Internet. Ces entreprises sont presque toutes établies à l’extérieur du Canada et leurs modèles d’entreprise reposent sur la publicité, ce qui peut les dissuader d’adopter des mesures concrètes visant à réduire certains méfaits.

Les Canadien·ne·s déclarent être relativement souvent exposé·e·s à des discours haineux et au harcèlement sur les plateformes en ligne publiques et privées, les taux étant plus élevés pour les personnes racisées, celles en situation de handicap et celles qui s’identifient comme LGBTQ2S+. Les acteur·trice·s de la sécurité publique et les groupes de victimes demandent une plus grande responsabilisation pour le retrait des contenus illicites en ligne, notamment l’incitation à la violence et au suicide, le contenu terroriste, l’exploitation sexuelle et l’usurpation d’identité. La diffusion en ligne de mésinformation à caractère conspirationniste et sa contribution à la polarisation, à la radicalisation et à la compromission des processus démocratiques du Canada, dû à l’effet combiné de sa portée organique et d’opérations d’influence étrangères, suscitent également de préoccupations de plus en plus vives. Cependant, les espaces privés sur le Web présentent des problèmes particuliers, ce qui constitue l’objet du présent exposé.

À compter de 2021, Patrimoine canadien a entrepris diverses consultations sur la conception éventuelle d’un cadre réglementaire pour répondre aux préoccupations en matière de sécurité en ligne, y compris des tables rondes, une assemblée citoyenne et un groupe consultatif d’experts. Ce processus a donné au Canada l’occasion de tirer des leçons de la mise en œuvre de politiques à l’étranger. Par exemple, des critiques ont été soulevées par rapport à la réglementation allemande NetzDG pour son manque de spécificité en ce qui concerne les consignes données aux plateformes. On note que cette réglementation laisse une trop grande marge de manœuvre et permet d’atteindre une conformité supérieure aux exigences  sans pourtant avoir un niveau suffisant de surveillance. Ce décalage a permis au Canada de passer d’une approche exclusivement axée sur le retrait du contenu préjudiciable dans une période de 24 heures à un modèle réglementaire plus adaptable qui met l’accent sur le devoir des plateformes d’agir de manière responsable et de procéder à un examen et à une atténuation transparente des risques systémiques pour les utilisateur·trice·s. Des modèles similaires ont été proposés en Australie, dans l’Union européenne et au Royaume-Uni. Pour maintenir le soutien du public et exercer une pression suffisante sur les grandes plateformes, il sera essentiel que les États démocratiques, dans un effort de traiter de manière responsable les contenus préjudiciables et de protéger la liberté d’expression, communiquent leurs enseignements et coordonnent leurs efforts. Le Canada aura de la difficulté à accomplir cette tâche seul, en particulier en ce qui concerne les changements qui entraîneront un effet direct sur les modèles de certaines entreprises.

Un élément particulièrement débattu de la gouvernance des plateformes consiste à décider quelles plateformes et quels services feront l’objet d’une surveillance réglementaire. Le gouvernement du Canada a précédemment exprimé son intention d’exclure les services « qui permettent aux personnes de s’engager uniquement dans des communications privées » de cette réglementation. La distinction entre les communications publiques et privées dans la réglementation relative à la liberté d’expression n’est évidemment pas une nouveauté. Par exemple, le Code criminel fait de la communication de déclarations qui encouragent volontairement la haine contre un groupe identifiable « autrement que dans une conversation privée » une infraction passible d’un acte criminel.

Il sera complexe d’établir une telle distinction pour les espaces en ligne fermés qui brouillent les frontières entre le privé et le public. En effet, la prolifération de contenus illégaux sur les plateformes privées en ligne suscite des inquiétudes légitimes. Par exemple, selon un sondage de 2020, 26 % des Canadien·ne·s ont déclaré avoir reçu des messages contenant des propos haineux au moins une fois par mois sur des plateformes de messagerie privée, les taux étant plus élevés chez les personnes racisées. On estime que 70 % des signalements d’abus sexuels d’enfants sur Facebook se font par le biais de messages privés sur Messenger ou Instagram. À la suite de l’assaut du Capitole aux États-Unis et du convoi de la liberté au Canada, des inquiétudes ont été exprimées quant au rôle des messageries et des groupes privés pour ce qui est de provoquer et de coordonner de tels événements.

Certaines plateformes privées, comme celles gérées par Meta, ont adopté certaines mesures pour traiter le contenu nuisible en ligne dans les messageries privées. Par exemple, les utilisateur·trice·s ont la possibilité de signaler le contenu nuisible à une équipe de modération. On a aussi introduit des messages d’alerte et des limites sur le transfert de messages pour freiner le potentiel de certains messages de devenir « viraux » et encourager les utilisateur·trice·s à vérifier le contenu des messages qui ont été transférés à plusieurs reprises. Dans le cas de certaines autres plateformes privées, comme Signal ou Telegram, un niveau inférieur de supervision et de modération est prévu. On permet notamment des groupes d’une taille maximale beaucoup plus élevée (jusqu’à 200 000 utilisateur·trice·s dans le cas de Telegram, par rapport à 250 pour Messenger ou Instagram).

Diverses approches réglementaires ont été adoptées par des administrations alliées en ce qui concerne l’inclusion de contenu privé à ce type de législation (par exemple, profils privés, groupes, canaux et messages directs). En Australie, la Online safety act permet à l’agence de régulation eSafety Commissioner de réglementer en matière de suppression de contenu lié à la « cyberintimidation » sur toutes les plateformes privées. Le Règlement sur les services numériques de l’Union européenne demande seulement aux plateformes privées ayant une portée importante en matière d’utilisateur·trice·s, comme Messenger de permettre le signalement de contenu nuisible pour qu’il soit examiné. Le règlement exige également la production de rapports annuels sur la transparence. Toutefois, aucune surveillance indépendante sur le contenu n’est prévue. Dans un effort pour lutter contre le matériel pédopornographique, l’Union européenne a également proposé des obligations de filtrage des communications privées aux plateformes afin de détecter le contenu nuisible à cet égard. Dans le même ordre d’idées, l’approche proposée par le Royaume-Uni prévoit de permettre l’analyse du contenu privé pour détecter les actes terroristes et les abus à l’égard des enfants, mais exclut de cette mesure les courriels et les messages SMS/MMS. Ces deux approches proposées de filtrage des communications privées ont été critiquées en raison de craintes par rapport à l’affaiblissement ou la suppression des messageries chiffrées de bout en bout, conduisant à la compromission potentielle des communications privées et, par conséquent, du droit à la vie privée et à la liberté d’expression.

L’élaboration de politiques visant la recherche d’un équilibre raisonnable entre des droits concurrents ne devrait jamais être subordonnée uniquement à l’opinion de la majorité, mais le contexte politique dans lequel s’inscrit l’élaboration de mesures dans ce domaine constitue une dynamique cruciale. En raison de la nature même des grandes plateformes en ligne, la réglementation publique pourrait affecter la majorité de la population canadienne. Il est donc utile de mettre en évidence certaines données provenant d’enquêtes publiques représentatives menées par notre équipe au cours des quatre dernières années (ainsi que celles provenant d’autres études) suggérant qu’une grande majorité de la population canadienne se méfie des plateformes en ligne et appuie les efforts de gouvernance des plateformes et la suppression expéditive du contenu illégal sur le Web au Canada. Par exemple, lorsqu’on leur demande de choisir entre une série d’énoncés sur l’équilibre entre certains droits, environ les deux tiers des Canadien·ne·s ont indiqué une préférence pour l’intervention (voir la figure ci-dessous). En moyenne, les répondant·e·s issu·e·s de la gauche et du centre du spectre politique ont exprimé un niveau de soutien beaucoup plus élevé en faveur de l’intervention, mais même la majorité des répondant·e·s s’identifiant à la droite politique soutiennent ces mesures.

Lorsqu’on a demandé aux participant·e·s pour quels types précis d’espaces Web on devrait, à leur avis, exiger la suppression du contenu illicite, comme les propos haineux ou la promotion de la violence, une grande majorité (87 %) s’est prononcée en faveur de la modération du contenu des pages ou des profils publics, tandis qu’une plus faible majorité s’est prononcée en faveur de la modération du contenu des groupes privés (61 %) et des pages ou profils privés (59 %). Le niveau de soutien est tombé à 40 % pour ce qui est des messageries privées.

Le Canada devrait s’inspirer du Règlement sur les services numériques de l’Union européenne et établir des normes minimales pour les plateformes de messagerie ayant une importante quantité d’utilisateur·trice·s au Canada, comme l’examen de leurs risques systémiques, l’établissement de mesures de signalement par les utilisateur·trice·s et la production de rapports sur la transparence. Une telle approche permettrait tout de même la réduction des méfaits, favoriserait une meilleure compréhension des préjudices en ligne sur ces canaux en vue d’orienter les éventuelles mesures à prendre, et atténuerait le risque que les entreprises soient incitées à créer davantage de plateformes fermées afin d’éviter les nouvelles obligations en matière de modération du contenu, sans imposer d’exigences en matière d’analyse du contenu ou d’affaiblissement du chiffrement. On devrait également tirer des leçons des efforts déployés par le passé pour réglementer et surveiller les préjudices dans les communications privées, comme la Loi canadienne anti-pourriel, la Liste nationale de numéros de télécommunication exclus du Canada et la réglementation contre l’envoi délibéré de messages trompeurs sur Internet par l’entremise de la Loi sur la concurrence du Canada.

Une quantité croissante de données probantes indiquent que la majorité de la population canadienne est préparée à l’adoption de mesures réglementaires pour contrer la prolifération de contenu nuisible en ligne. En adoptant une approche qui tient compte des différentes formes d’espaces Web privés et du rôle unique de la messagerie directe, la législation contribuera grandement au maintien d’un soutien et d’une confiance de la part du public.