Since its inception in 2004, Facebook has grown to include over 3 billion monthly active users worldwide. Among these, Latinos in the United States and Latin America have become regular users. To support this expansive user base and to address connectivity issues specifically in Latin America, Facebook has invested in infrastructure and forged collaborations over time. However, alongside its growth, outreach potential, and ability to amplify marginalized voices, managing the spread of misinformation and disinformation on the platform has emerged as a significant challenge. This is partly due to the sheer size of the platform’s user base and the diversity of content shared, and also due to the existence of closed or private groups. In these groups, content is shared among members with little oversight or visibility to those outside the group. The company has faced criticism for its role in the amplification of false information during major events, such as elections and public health crises. Despite this criticism, Facebook has recently laid off thousands of employees, leading to current and former employees raising concerns about how it could endanger content moderation. 

Why Does This Platform Matter?

Despite stagnating growth in its overall user base, Facebook remains a key platform for Latino populations. According to the Pew Research Center, 72% of U.S. Latino adults use Facebook. Data from Equis Research reveals that more than one third (38%) of U.S. Latino adults are using Facebook as a news source “often” in a typical week. These statistics highlight the platform's significant influence and importance within the Latino community in the United States. 

Facebook also has a substantial presence in Latin America, with over half of the region’s population using the platform. Data from Latinobarometro shows that in 2010, roughly 20% of adults in the region had a Facebook account. This figure increased to 42% by 2015, and then further grew to 65% by 2020. While these changes were taking place, politicians in the region also started to shift their communications to online platforms. In Brazil, for instance, Facebook data reveals that only about 17% of national politicians had a Facebook page in 2011. By the time of the 2018 election, the platform had become a standard tool used by virtually all nationally elected politicians.

How Does Information (and Disinformation) Spread on the Platform? 

Facebook is a prominent platform for the spread of false information and hate speech aimed at Latino and Hispanic users, including in English, Spanish, and Portuguese. Individual users often share content they find interesting or alarming without verifying its accuracy, causing misleading or false information to quickly spread through shares and reposts. However, Facebook’s algorithm plays a significant role by prioritizing content that garners engagement to keep users on the platform longer. This can lead to the amplification of sensational or divisive content, regardless of its accuracy. 

Furthermore, Facebook is filled with echo chambers and filter bubbles, especially in Facebook groups, that can intensify the spread of false information. Users tend to interact with like-minded individuals and sources, leading to the reinforcement of certain beliefs. A recent study conducted by Meta, in collaboration with external researchers, discovered that liberal and conservative Facebook users tend to inhabit their own distinct political bubbles on the platform, more so than in other online spaces. 

High-profile users or influencers can also have a significant impact on the spread of information. This is especially true during critical events or crises where misinformation can rapidly circulate as people seek information and updates. For example, during the COVID-19 pandemic, unfounded rumors, conspiracy theories, and misinformation about the virus and the vaccines circulated in English, Spanish, and Portuguese on Facebook, including by influencers and groups in Latin America. The Spanish and Portuguese narratives largely reflected the narratives seen in English spaces online, such as conspiracy theories (e.g. plandemic, 5G, microchip, etc.), popular fake cures (e.g. hydroxychloroquine), and anti-vaccine narratives.

Earlier this year, the “QAnon-adjacent” film ‘Sound of Freedom’ spread widely among right-wing Latino communities in the United States and Latin America, particularly among religious and evangelical groups. Critics accused the film of “warping the truth about child exploitation and catering to QAnon conspiracy theorists.” Prominent Latino influencers in Latin America and the United States promoted the film and related conspiratorial narratives. These included claims that the left, mainstream media, and Hollywood were restricting or censoring the film, often labeling them as “Hollywood elites” or “leftist pedophiles.” According to CrowdTangle, in July 2023, over 30 Spanish-language Facebook posts about the film received more than 25,000 shares each, mainly from Latin American accounts, including Mexico, Peru, and Argentina.

Although a significant portion of false and misleading content is often associated with partisan pages or groups, it also frequently circulates within less partisan Latino communities on Facebook. These nonpartisan spaces can pose greater risks as they may appear more credible or trustworthy to their audiences. The users in these Facebook pages and groups often join seeking a sense of online community, leading them to believe or trust the information presented.

How Does the Platform Respond to Information Disorder?

While Facebook has been investing in fact-checking partnerships, AI-based content review systems, and policies to mitigate the spread of misinformation and protect the integrity of the platform, there is a clear asymmetry between the moderation of English and Spanish and Portuguese content. While Facebook frequently flags false content in English, its response to equivalent or similar content in Spanish and Portuguese is often delayed or, in some cases, entirely overlooked. 

The Oversight Board, an independent body established in 2020 that reviews and makes decisions about content moderation on Facebook, aims to balance the interests of free expression and community safety. However, challenges persist, as evidenced by the Spanish-language voter fraud narratives during the 2020 elections and COVID-19 misinformation in 2020 and 2021 that were more likely to remain on Facebook for extended periods without being flagged. Additionally, in August 2023, Meta was accused of ignoring reports on dangerous content spreading on Facebook flagged by their Trusted Partner program, a program consisting of hundreds of civil society and human rights groups that can alert Facebook of dangerous and harmful content.

Relatedly, in January 2023, Facebook's algorithm guided users who entered basic search queries about the Brazilian election toward groups that were questioning the integrity of the vote. Researchers from the advocacy group SumOfUs discovered that searches in Portuguese for election-related terms such as "fraud," "intervention," and "ballots" on Facebook directed users to groups promoting allegations that challenged the integrity of the voting process or were openly calling for a military takeover. Similar actions have been observed in elections in the United States, where the algorithm has at times directed users to content questioning the legitimacy of U.S. elections, contributing to wider debates and concerns over electoral integrity.

Looking to the Future

In the upcoming 2024 elections, Facebook is expected to remain a primary source for Latinos seeking news and information. However, along with reliable content, disinformation, misinformation, and problematic narratives are likely to persist and spread within Latino communities on the platform, including in Spanish and Portuguese in both the United States and Latin America. Additionally, critically important upcoming Supreme Court cases could impact social media companies’ ability to moderate content. 

Vigilance in critical thinking and fact-checking will be essential to navigate the information landscape effectively, but expanding non-English-language resources is imperative for Facebook, and at the very least, they should apply the same measures to address Spanish- and Portuguese-language content as they do for English content.


Spanish Version - Versión en Español

Los latinos y Facebook

Desde su creación en 2004, Facebook ha crecido hasta tener más de 3 mil millones de usuarios activos mensuales en todo el mundo. Entre ellos, los latinos en Estados Unidos y América Latina se han convertido en usuarios habituales. Para respaldar esta amplia base de usuarios y abordar los problemas de conectividad específicamente en América Latina, Facebook  ha invertido en infraestructura y ha forjado colaboraciones a lo largo del tiempo. Sin embargo, junto con su crecimiento, su potencial de alcance y su capacidad para amplificar las voces marginadas, la gestión de la difusión de información errónea y la desinformación en la plataforma se ha convertido en un reto importante. Esto se debe en parte al gran tamaño de la base de usuarios de la plataforma y a la diversidad de contenidos compartidos, y también a la existencia de grupos cerrados o privados. En estos grupos, el contenido se comparte entre los miembros con poca supervisión o visibilidad para los que no pertenecen al grupo. La compañía se ha enfrentado a críticas por su papel en la amplificación de información falsa durante acontecimientos importantes, como elecciones y crisis de salud pública. A pesar de estas críticas, Facebook ha despedido recientemente a miles de empleados, lo que ha llevado a empleados actuales y antiguos a expresar su preocupación por cómo esto  podría poner en peligro la moderación de contenidos. 

¿Por qué es importante esta plataforma?

A pesar de que la base de usuarios de Facebook ha disminuido recientemente, según el Pew Research Center, el 72% de los adultos latinos de EE. UU. utilizan Facebook. Los datos  de Equis Research revelan que más de un tercio (38%) de los adultos latinos de EE. UU. utilizan Facebook como fuente de noticias”a menudo” en una semana normal. Estas estadísticas destacan la gran influencia e importancia de la plataforma dentro de la comunidad latina en los Estados Unidos. 

Facebook también tiene una presencia sustancial  en América Latina, con más de la mitad de la población de la región utilizando la plataforma. Los datos de Latinobarómetro muestran que en 2010, aproximadamente el 20 % de los adultos de la región tenían una cuenta de Facebook. Esta cifra aumentó al 42 % en 2015, y luego creció aún más al 65 % en 2020. Mientras se producían estos cambios, los políticos de la región también comenzaron a trasladar sus comunicaciones a las plataformas en línea. En Brasil, por ejemplo,  los datos de Facebook  revelan que solo alrededor del 17 % de los políticos nacionales tenían una página de Facebook en 2011. En el momento de las elecciones de 2018, la plataforma se había convertido en una herramienta estándar utilizada por prácticamente todos los políticos electos a nivel nacional.

¿Cómo se difunde la información (y la desinformación) en la plataforma? 

Facebook es una plataforma destacada para la difusión de información falsa y discursos de odio dirigidos a usuarios latinos e hispanos, incluso en inglés, español y portugués. Los usuarios individuales a menudo comparten contenidos que les parecen interesantes o alarmantes sin verificar su veracidad, lo que hace que la información engañosa o falsa se difunda rápidamente a través de comparticiones y republicaciones. Sin embargo, el algoritmo de Facebook desempeña un papel importante al dar prioridad a los contenidos que generan interés para mantener a los usuarios en la plataforma durante más tiempo. Esto puede conducir a la amplificación de contenidos sensacionalistas o divisivos, independientemente de su precisión. 

Además, Facebook está lleno de cámaras de eco y burbujas de filtro, especialmente en los grupos de Facebook, que pueden intensificar la difusión de información falsa. Los usuarios tienden a interactuar con personas y fuentes de ideas afines, lo que lleva al refuerzo de determinadas creencias. Un estudio reciente realizado por Meta, en colaboración con investigadores externos, descubrió que los usuarios liberales y conservadores de Facebook tienden a habitar sus propias burbujas políticas distintivas en la plataforma, más que en otros espacios en línea. 

Los usuarios de alto perfil o personas influyentes también pueden tener un impacto significativo en la difusión de la información. Esto es especialmente cierto durante acontecimientos críticos o crisis, cuando la información errónea puede circular rápidamente a medida que las personas buscan información y actualizaciones. Por ejemplo, durante la pandemia del COVID-19, rumores infundados, teorías conspirativas e información errónea sobre el virus y las vacunas circularon en inglés, español y portugués en Facebook, incluso por parte de personas influyentes y grupos en América Latina. Las narrativas en español y portugués reflejaron en gran medida las narrativas que se ven en los espacios virtuales en inglés, como las teorías conspirativas (por ejemplo: la plandemia, el 5G, el microchip, etc.), las curas falsas populares (por ejemplo: la hidroxicloroquina) y las narrativas antivacunas.

A principios de este año, la película adyacente a QAnon 'Sonido de la Libertad' se difundió ampliamente entre las comunidades latinas de derecha en Estados Unidos y América Latina, en particular entre los grupos religiosos y evangélicos. Los críticos acusaron a la película de "deformar la verdad sobre la explotación infantil y atender a los teóricos de la conspiración de QAnon". Prominentes influencers latinos en América Latina y Estados Unidos promovieron la película y las narrativas conspirativas relacionadas. Estas incluían afirmaciones de que la izquierda, los principales medios de comunicación y Hollywood estaban restringiendo o censurando la película, a menudo etiquetándolos como "élites de Hollywood" o "pedófilos izquierdistas". Según CrowdTangle, en julio de 2023, más de 30 publicaciones de Facebook en español sobre la película fueron compartidas más de 25,000 veces cada una, principalmente de cuentas latinoamericanas, incluyendo México, Perú y Argentina.

Aunque una parte significativa de los contenidos falsos y engañosos suelen asociarse a páginas o grupos partidistas, también circulan con frecuencia dentro de las comunidades latinas menos partidistas en Facebook. Estos espacios no partidistas pueden plantear mayores riesgos, ya que pueden parecer más creíbles o dignos de confianza para sus audiencias. Los usuarios de estas páginas y grupos de Facebook a menudo se unen buscando un sentido de comunidad en línea, lo que les lleva a creer o confiar en la información presentada.

¿Cómo responde la plataforma al desorden de la información?

Si bien Facebook ha estado invirtiendo en asociaciones para la verificación de datos, sistemas de revisión de contenidos basados en IA y políticas para mitigar la difusión de información errónea y proteger la integridad de la plataforma, existe una clara asimetría entre la moderación de contenidos en inglés, español y portugués. Mientras que Facebook marca con frecuencia a contenidos falsos en inglés, su respuesta a contenidos equivalentes o similares en español y portugués suele retrasarse o, en algunos casos, pasarse por alto por completo. 

La Junta de Supervisión, un organismo independiente establecido en 2020 que revisa y toma decisiones sobre la moderación de contenidos en Facebook, tiene como objetivo equilibrar los intereses de la libertad de expresión y la seguridad de la comunidad. Sin embargo, persisten los desafíos, como lo demuestran las narrativas en español sobre el fraude electoral durante las elecciones de 2020 y la desinformación sobre el COVID-19 en 2020 y 2021, que tuvieron más probabilidades de permanecer en Facebook durante períodos prolongados sin ser señaladas. Además, en agosto de 2023,  se acusó a Meta de ignorar los informes sobre la difusión de contenidos peligrosos en Facebook marcados por su programa Trusted Partner, un programa formado por cientos de grupos de la sociedad civil y de derechos humanos que pueden alertar a Facebook de contenidos peligrosos y dañinos.

En relación con esto, en enero de 2023, el algoritmo de Facebook orientó a los usuarios que realizaban búsqueda básicas sobre las elecciones brasileñas hacia grupos que cuestionaban la integridad del voto. Investigadores del grupo de defensa SumOfUs descubrieron que las  búsquedas en portugués de términos relacionados con las elecciones como "fraude", "intervención" y "boletas" en Facebook dirigían a los usuarios a grupos que promovían alegaciones que cuestionaban la integridad del proceso de votación o que pedían abiertamente una toma del poder por parte de los militares. Se ha observado acciones similares en las elecciones  de Estados Unidos, donde el algoritmo a veces ha dirigido a los usuarios a contenido que cuestiona la legitimidad de las elecciones estadounidenses, lo que ha contribuido a debates más amplios y preocupaciones sobre la integridad electoral.

Mirando hacia el futuro

En las próximas elecciones de 2024, se espera que Facebook siga siendo una fuente principal para los latinos que buscan noticias e información. Sin embargo, junto con contenidos fiables, es probable que la desinformación, la información errónea y las narrativas problemáticas persistan y se extiendan dentro de las comunidades latinas en la plataforma, incluso en español y portugués tanto en Estados Unidos como en América Latina. Además, los próximos casos de la Corte Suprema son de importancia crítica pues podrían afectar la capacidad de las empresas de redes sociales para moderar los contenidos. 

La vigilancia en el pensamiento crítico y la verificación de datos será esencial para navegar por el panorama de la información de manera efectiva, pero la expansión de los recursos en lenguas no inglesa es imperativa para Facebook y, como mínimo, deberían aplicar las mismas medidas para abordar los contenidos en español y portugués que para los contenidos en inglés.


Portuguese Version - Versão em Português

Os latinos e o Facebook

Desde sua criação em 2004, o Facebook cresceu e hoje tem mais de 3 bilhões de usuários ativos mensais em todo o mundo. Entre eles, os latinos nos Estados Unidos e na América Latina se tornaram usuários regulares. Para apoiar essa base de usuários expansiva e abordar especificamente problemas de conectividade na América Latina, o Facebook investiu em infraestrutura e forjou colaborações ao longo do tempo. No entanto, junto com seu crescimento, potencial de alcance e capacidade de amplificar vozes marginalizadas, gerenciar a disseminação de desinformação na plataforma emergiu como um desafio significativo. Isso se deve em parte ao tamanho da base de usuários da plataforma e à diversidade de conteúdo compartilhado, além da existência de grupos fechados ou privados. Nestes grupos, o conteúdo é compartilhado entre os membros com pouca supervisão ou visibilidade para aqueles que estão fora do grupo. A empresa enfrentou críticas por seu papel na amplificação de informações falsas durante eventos importantes, como eleições e crises de saúde pública. Apesar dessas críticas, o Facebook recentemente demitiu milhares de funcionários, levando atuais e ex-funcionários a levantar suspeitas sobre como isso pode colocar em perigo a moderação de conteúdos na rede social.

Por que essa plataforma importa?

Apesar de o crescimento da base de usuários do Facebook ter diminuído recentemente, a plataforma continua sendo importante para os latinos. De acordo com o Pew Research Center, 72% dos adultos latinos nos Estados Unidos usam o Facebook. Dados da Equis Research revelam que mais de um terço (38%) dos adultos latinos nos Estados Unidos estão usando o Facebook como fonte de notícias "frequentemente" em uma semana típica. Essas estatísticas destacam a influência e importância significativas da plataforma dentro da comunidade latina nos Estados Unidos.

O Facebook também tem uma presença substancial na América Latina, com mais da metade da população da região usando a plataforma. Dados do Latinobarometro mostram que em 2010, cerca de 20% dos adultos na região tinham uma conta no Facebook. Esse número aumentou para 42% até 2015 e depois cresceu ainda mais para 65% até 2020. Enquanto essas mudanças estavam ocorrendo, os políticos na região também começaram a migrar suas comunicações para plataformas online. No Brasil, por exemplo, dados do Facebook revelam que apenas cerca de 17% dos políticos nacionais tinham uma página no Facebook em 2011. No momento das eleições de 2018, a plataforma se tornou uma ferramenta padrão usada por praticamente todos os políticos eleitos nacionalmente.

Como a informação (e a desinformação) se espalha na plataforma?

O Facebook é uma plataforma proeminente para a disseminação de informações falsas e discurso de ódio voltados para usuários latinos e hispânicos, incluindo em inglês, espanhol e português. Usuários individuais frequentemente compartilham conteúdo que acham interessante ou alarmante sem verificar sua precisão, causando a rápida disseminação de informações enganosas ou falsas por meio de compartilhamentos e repostagens. No entanto, o algoritmo do Facebook desempenha um papel significativo ao priorizar conteúdo que gera engajamento para manter os usuários na plataforma por mais tempo. Isso pode levar à amplificação de conteúdo sensacionalista ou divisivo, independentemente de sua precisão.

Além disso, o Facebook está cheio de câmaras de eco e bolhas de filtro, especialmente em seus grupos, espaços que podem intensificar a disseminação de informações falsas. Os usuários tendem a interagir com indivíduos e fontes semelhantes, levando ao reforço de certas crenças. Um estudo recente realizado pela Meta, em colaboração com pesquisadores externos, descobriu que usuários liberais e conservadores do Facebook tendem a habitar suas próprias bolhas políticas na plataforma, mais do que em outros espaços online.

Usuários ou influenciadores de alto perfil também podem ter um impacto significativo na disseminação de informações. Isso é especialmente verdadeiro durante eventos críticos ou crises em que a desinformação pode circular rapidamente à medida que as pessoas buscam informações e atualizações. Por exemplo, durante a pandemia COVID-19, rumores infundados, teorias da conspiração e desinformação sobre o vírus e as vacinas circularam em inglês, espanhol e português no Facebook, incluindo pelas mãos de influenciadores e de grupos enraizados na América Latina. As narrativas em espanhol e português refletiram em grande parte as narrativas vistas em espaços online em inglês, como teorias da conspiração (por exemplo, plandemia, 5G, microchip, etc.), curas falsas populares (por exemplo, hidroxicloroquina) e narrativas anti-vacina.

No início deste ano, o filme "QAnon-adjacente" 'Sound of Freedom' se espalhou amplamente entre as comunidades latinas de direita nos Estados Unidos e na América Latina, especialmente entre grupos religiosos e evangélicos. Críticos acusaram o filme de "distorcer a verdade sobre a exploração infantil e atender aos teóricos da conspiração do QAnon". Influenciadores latinos proeminentes na América Latina e nos Estados Unidos promoveram o filme e narrativas conspiratórias relacionadas a ele. Estes incluíram alegações de que a esquerda, a mídia mainstream e Hollywood estavam restringindo ou censurando o filme, muitas vezes rotulando-os como "elite de Hollywood" ou "pedófilos esquerdistas". De acordo com o CrowdTangle, em julho de 2023, mais de 30 postagens em espanhol no Facebook sobre o filme receberam mais de 25.000 compartilhamentos cada uma, principalmente de contas latino-americanas, incluindo vindas de México, Peru e Argentina.

Embora uma parte significativa do conteúdo falso e enganoso esteja frequentemente associada a páginas ou grupos partidários, ele também circula com frequência dentro de comunidades latinas menos partidárias no Facebook. Esses espaços não partidários podem representar maiores riscos, pois podem parecer mais críveis ou confiáveis para seu público. Os usuários dessas páginas e grupos do Facebook geralmente se juntam em busca de um senso de comunidade online, levando-os a acreditar ou confiar nas informações apresentadas.

Como a plataforma responde ao problema da desinformação?

Embora o Facebook tenha investido em parcerias com checadores de fatos, sistemas de revisão de conteúdo baseados em inteligência artificial e políticas para mitigar a propagação de desinformação e proteger a integridade da plataforma, há uma clara assimetria entre a moderação de conteúdo em inglês, em espanhol e português. Enquanto o Facebook frequentemente sinaliza conteúdo falso em inglês, sua resposta a conteúdo equivalente ou similar em espanhol e português muitas vezes é demorada ou, em alguns casos, completamente ignorada.

O Oversight Board, órgão independente estabelecido em 2020 que revisa e toma decisões sobre a moderação de conteúdo no Facebook, visa a equilibrar os interesses da liberdade de expressão e da segurança da comunidade. No entanto, desafios persistem, como evidenciado pelas narrativas em espanhol sobre fraude eleitoral durante as eleições de 2020 nos EUA e desinformação sobre COVID-19 em 2020 e 2021, que tinham mais probabilidade de permanecer no Facebook por períodos prolongados sem serem sinalizadas. Além disso, em agosto de 2023, a Meta foi acusada de ignorar relatos de conteúdo perigoso se espalhando no Facebook apesar de terem sido sinalizados por membros de seu programa de Parceiros Confiáveis, composto por centenas de grupos da sociedade civil e direitos humanos que podem alertar o Facebook sobre conteúdo perigoso e prejudicial.

Relacionado a isso, em janeiro de 2023, o algoritmo do Facebook direcionou os usuários que fizeram pesquisas básicas sobre as eleições brasileiras para grupos que questionavam a integridade da votação. Pesquisadores do grupo de defesa SumOfUs descobriram que pesquisas em português por termos relacionados às eleições, como "fraude", "intervenção" e "cédulas", no Facebook direcionavam os usuários para grupos que promoviam alegações que desafiavam a integridade do processo eleitoral ou que pediam abertamente uma intervenção militar. Ações semelhantes foram observadas nas eleições nos Estados Unidos, onde o algoritmo às vezes direcionou os usuários para conteúdo que questionava a legitimidade das eleições americanas, contribuindo para debates mais amplos e preocupações com a integridade eleitoral.

Olhando para o futuro

Nas próximas eleições de 2024, espera-se que o Facebook continue sendo uma fonte primária para latinos em busca de notícias e informações. No entanto, juntamente com conteúdo confiável, desinformação, informações falsas e narrativas problemáticas provavelmente persistirão e se espalharão dentro das comunidades latinas na plataforma, incluindo em espanhol e português, tanto nos Estados Unidos quanto na América Latina. Além disso, casos futuros extremamente importantes na Suprema Corte podem impactar a capacidade das empresas de mídia social de moderar o conteúdo.

A vigilância no pensamento crítico e na checagem de fatos será essencial para navegar efetivamente pelo cenário de informações, mas expandir os recursos em idiomas diferentes do inglês é imperativo para o Facebook e, no mínimo, eles devem aplicar as mesmas medidas para abordar o conteúdo em espanhol e português como fazem para o conteúdo em inglês.