¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo baxulaft@gmai.com no ha sido verificado. VERIFICAR CORREO

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí.

Novedades Tecnología

El reto de desarmar la desinformación digital

La desinformación es un riesgo latente en una sociedad en la que la incidencia de las redes sociales en la toma de decisiones de la vida real es clara.

La desinformación es un riesgo latente en una sociedad en la que la incidencia de las redes sociales en la toma de decisiones de la vida real es clara.

Foto:iStock

La desinformación en línea no es un problema que ninguna sociedad pueda permitirse ignorar.

Kelly Born - Project Syndicate
El asalto al Capitolio de Estados Unidos el 6 de enero imbuyó las preocupaciones de larga data sobre la desinformación digital con un nuevo sentido de urgencia, porque mostró la facilidad con la que la interacción en línea puede conducir a acciones fuera de línea. No pasó mucho tiempo para llegar a este punto.
La desinformación digital entró por primera vez en la conciencia pública con la campaña del Brexit en el Reino Unido y la elección de Donald Trump como presidente de Estados Unidos. Y, sin embargo, como demostró la insurrección del Capitolio, el panorama general de desinformación de los últimos años difiere notablemente del de 2016.
Mientras que adversarios extranjeros, bots y cuentas falsas han dominado el diálogo sobre la desinformación desde 2016, en el último año, los influencers nacionales (de EE. UU.) —personas reales con identidades autenticadas— han tomado el control. Las narrativas que se promovieron también difirieron con la pandemia de coronavirus, tomando protagonismo. Como resultado, el alcance de la desinformación se volvió global.
Las cuentas de Trump en Facebook e Instagram (propiedad de la compañía) permanecen cerradas desde el asalto al Capitolio del pasado 6 de enero.

Las cuentas de Trump en Facebook e Instagram (propiedad de la compañía) permanecen cerradas desde el asalto al Capitolio del pasado 6 de enero.

Foto:Olivier Douliery / AFP

En los Estados Unidos, las falsas narrativas pandémicas compitieron con las historias que buscaban socavar la confianza en las elecciones presidenciales. Algunos trataron de organizar e incitar a la violencia.
Pero si bien los actores, las técnicas y las narrativas han evolucionado, el problema fundamental sigue siendo el mismo. El entorno de información en línea que habitamos está dominado por empresas de redes sociales con fines de lucro que dependen de una fuerte participación de los usuarios para vender espacio publicitario. Esto, junto con la predisposición psicológica de las personas a involucrarse más con noticias que afirman sus creencias e identidades preexistentes, da como resultado un ecosistema de información donde las falsedades viajan seis veces más rápido que los hechos, en promedio.
Y el uso de las redes sociales sigue creciendo. En 2018, plataformas líderes como Twitter y Facebook habían superado a los periódicos impresos en Estados Unidos como una fuente de noticias más frecuente. En 2020, las redes sociales superaron a la televisión (cable, red y local) como la principal fuente de noticias políticas en los Estados Unidos. Entre los adultos estadounidenses menores de 30 años, el 48 % ya recibe la mayoría de sus noticias políticas de las redes sociales. A medida que las cohortes de edad más jóvenes alcancen la madurez, estas cifras crecerán en consecuencia.

Verdad asfixiada

La llegada del presidente Joe Biden a la Casa Blanca traerá nuevas oportunidades de reforma. Sin embargo, aunque se han propuesto cientos de reformas de las redes sociales, no hay muchos consensos sobre cuál es la mejor manera de mejorar el entorno de información distorsionado actual.
Las propuestas actuales pueden agruparse ampliamente en tres categorías según su enfoque dentro del ecosistema de información. Algunas medidas son “upstream” (ascendentes), apoyando la producción de información de alta calidad, incluyendo tanto la investigación como el periodismo. Otras son “midstream” (intermedias), trabajando para cambiar los comportamientos de las plataformas dominantes de redes sociales. Y el tercer conjunto de propuestas parece “dowstream” (descendentes), para fomentar formas más saludables de participación del público.
Anonymous y Twitter.

Anonymous y Twitter.

Foto:Archivo particular

Los desafíos a los que se enfrentan los esfuerzos ascendentes y descendentes son bien conocidos por los que están en el campo. En términos generales, es probable que sea necesario mejorar la calidad de la información (ascendentes), pero ciertamente insuficiente. No hay escasez de información de alta calidad basada en la evidencia sobre el cambio climático y las vacunas, por ejemplo, y, sin embargo, las falsas creencias sobre estos y otros temas importantes siguen ganando fuerza con el público.
Del mismo modo, los esfuerzos orientados a la audiencia (descendentes), como los programas de verificación de datos y de alfabetización informativa, generalmente son difíciles de escalar, y pueden ser presa de un razonamiento motivado y sesgos de confirmación. Por razones obvias, la propensión de las personas a buscar información que refleje y refuerce sus visiones del mundo complica la eficacia de muchos esfuerzos orientados al público.
En cuanto a las intervenciones para abordar el papel de las plataformas de redes sociales, pocos estudios han evaluado las muchas soluciones propuestas de manera integral. Estas propuestas de políticas intermedias pueden dividirse aún más en seis categorías, empezando por aquellas que se dirigen al problema de la desinformación más directamente (moderación de contenido y curación de la red), y progresando hacia intervenciones menos estrechamente relacionadas (como la acción antimonopolio), que son más propensas a producir consecuencias no deseadas.
En cualquier caso, ninguna intervención puede resolver un problema de este tamaño. Es probable que se requiera alguna combinación de soluciones, y el diablo, sin duda, estará en los detalles.

Moderado y curado

Desde el principio, la gran mayoría de las propuestas centradas en la plataforma han tenido como objetivo mejorar la moderación del contenido y la curación de la red por parte de las empresas de redes sociales.
Si bien la regulación en todos estos frentes parecería ofrecer el enfoque más directo para resolver el problema, esta estrategia se encuentra rápidamente a desafíos. En primer lugar, es sorprendentemente difícil definir lo que cuenta como contenido problemático. Para que un artículo califique como “desinformación”, ¿debe ser completamente falso? ¿O es suficiente mostrar que un artículo incluye algunos hechos engañosos junto con información precisa, o predominantemente información fáctica que ha sido sacada de contexto o enmarcada en una luz incendiaria? ¿Deben aplicarse estas determinaciones al artículo, al autor o a todo el sitio web?

Idealmente, Facebook (y otros) deben abrirse para que las herramientas de terceros (middleware) puedan proporcionar sus propias experiencias

La curación de la red, mediante la cual los algoritmos ayudan a reclutar comunidades de usuarios con ideas afines que luego pueden convertirse en terreno fértil para las campañas de desinformación, no es menos problemática. Un informe interno de 2018 que circuló en Facebook, revelado por The Wall Street Journal, encontró que el 64 % de las personas que se unieron a un grupo extremista en la plataforma de Facebook lo hicieron sólo porque el algoritmo de la compañía les recomendó el grupo.
Estos problemas persisten. La página de Facebook “Stop The Steal” (Detener el robo), un centro de desinformación relacionada con las elecciones estadounidenses y una plataforma para organizar la insurrección del Capitolio, acumuló más de 320.000 seguidores en menos de 24 horas después de las elecciones presidenciales, lo que la convierte en uno de los grupos de Facebook de más rápido crecimiento de todos los tiempos.
Claramente, no se puede confiar en que las empresas de redes sociales se regulen a sí mismas. Por lo tanto, un creciente coro de voces está pidiendo que las plataformas se enfrenten a una mayor responsabilidad legal por el contenido problemático que alojan.
Este es el camino forjado por Alemania con su Ley de Aplicación de la Red (NetzDG), que permite multas de hasta 50 millones de euros por no eliminar contenido “obviamente ilegal”. Pero esto representa desafíos según las leyes de cada país.
Algunos esperan evitar el problema de la moderación de contenido, a través de dos reformas orientadas a la audiencia: controles mejorados de los usuarios y capacitación en alfabetización digital implementada en la plataforma.
Las plataformas de redes sociales ya han estado experimentando con configuraciones de usuario mejoradas como bloqueadores de anuncios, filtros de anuncios políticos, controles parentales, filtrado de URL y filtros que limitan quién puede responder a una publicación (una característica introducida recientemente por Twitter).
Asimismo, la nueva Ley de Servicios Digitales de la Comisión Europea, su reforma regulatoria digital más significativa en dos décadas, busca proporcionar “más autonomía, elección y control de los usuarios”.
En la misma línea, Mike Masnick de Techdirt, Francis Fukuyama de la Universidad de Stanford y otros han propuesto soluciones relacionadas con el “middleware”. Como Masnick señala, “idealmente, Facebook (y otros) deben abrirse para que las herramientas de terceros (middleware) puedan proporcionar sus propias experiencias, entonces cada persona podría elegir el servicio o la configuración de filtrado que desee”.
De manera similar, Daphne Keller, de Stanford, señala que los usuarios podrían “elegir una versión de Twitter con clasificación G (general) de Disney o un lente orientado a la justicia racial en YouTube de un grupo afiliado a Black Lives Matter”. Pero estas soluciones requerirían una capacidad técnica mucho mayor de la que existe. Y las plataformas tendrían que ser voluntarias o estar legalmente obligadas a cooperar.
Además, no está claro si los usuarios aprovecharían estas opciones, dado que la mayoría de las personas simplemente aceptan la configuración predeterminada de una plataforma. Y si la regulación de la plataforma parece difícil ahora, investigar, monitorear y regular miles de mini-Facebooks sería aún más difícil.

Foto:iStock

La segunda reforma clave, la capacitación en alfabetización digital implementada en la plataforma, se basa en el argumento de que los usuarios de internet necesitan nuevas herramientas para navegar por el ecosistema de información moderno. Más de 20 grupos, incluyendo el News Literacy Project (Proyecto de Alfabetización de Noticias), el First Draft News (Primer Borrador de Noticias) y la organización global de desarrollo y educación, IREX, ya han lanzado programas.
Más recientemente, la inoculación o el “pre-bunking” han surgido como alternativas a la verificación de hechos o desacreditación (que ocurren después del hecho y han demostrado ser en gran medida ineficaces).
Tales esfuerzos buscan exponer a las personas a dosis más bajas de desinformación preventivamente y de manera controlada, para que sepan cómo detectar lo real. Por ejemplo, en colaboración con Nudge Lebanon y la Unidad de Perspectivas del Comportamiento de Qatar (Qatar Behavioral Insights Unit) , los investigadores han experimentado con exponer al público a versiones debilitadas de las técnicas tradicionales extremistas de reclutamiento en línea. Estos métodos parecen ayudar a cultivar “anticuerpos mentales” contra las noticias falsas.
Pero estos esfuerzos se topan con problemas de escala y selección. La gente está ocupada. Incluso si pueden encontrar el tiempo para una formación especial, aquellos que se inscribirían en tales programas no son necesariamente las personas más vulnerables a la desinformación. Son el coro, no la congregación.
Sin embargo, si la formación en alfabetización de noticias pudiera proporcionarse directamente a través de las plataformas, la escala de la solución se adaptaría mucho mejor a la magnitud del problema.
Aquí, algunos experimentos tempranos parecen prometedores. La reciente adición de mensajes de Twitter animando a los usuarios a “leer el artículo antes de tuitearlo” llevó a un aumento del 33% en los usuarios que abren artículos antes de compartirlos. Del mismo modo, estudios del MIT muestran que los “empujones de precisión” que incitan a los usuarios a pensar en la veracidad de una historia antes de compartirla pueden ayudar a reducir la propagación de la desinformación. Y Facebook anunció una inversión inicial de $2 millones (de dólares) en 2019 para apoyar proyectos de alfabetización mediática, y siguió con apoyo adicional para este tipo de proyectos en 2020.
Con la continuación de la promoción, la presión sobre las principales plataformas y la investigación sobre la eficacia de los diferentes métodos, se podría seguir avanzando.

Cuatro condiciones necesarias para asumir el problema

Independientemente de las propuestas políticas (o combinaciones de propuestas) que se persigan, será esencial una serie de intervenciones de apoyo para ayudar a abordar la desinformación digital. La primera es la investigación. Necesitamos más estudios longitudinales sobre el problema, así como mejores definiciones y marcos para guiar la toma de decisiones.
Desde 2016, se han creado muchas organizaciones nuevas e importantes para profundizar nuestra comprensión e identificar posibles soluciones. Pero queda mucho por hacer. Como explican dos destacados académicos en el campo en el libro de 2020 Redes Sociales y Democracia (Social Media and Democracy):
Respondiendo a un ambiente de pánico en torno al efecto de las redes sociales en la democracia, los reguladores y otros actores políticos se apresuran a llenar el vacío político con propuestas basadas en anécdotas y sabiduría popular que emergen de cualquiera que sea el escándalo más reciente. La necesidad de una producción en tiempo real de investigaciones científicas rigurosas y relevantes para las políticas sobre los efectos de las nuevas tecnologías en la comunicación política nunca ha sido más urgente”.
En Colombia existen diferentes formas de gestionar el riesgo crediticio, siendo el afianzamiento una de las herramientas más completas, porque previene el deterioro de la cartera de créditos.

En Colombia existen diferentes formas de gestionar el riesgo crediticio, siendo el afianzamiento una de las herramientas más completas, porque previene el deterioro de la cartera de créditos.

Foto:Istock

Si bien decenas de miles de millones de dólares se invierten anualmente en investigar cuestiones como el cambio climático, los gobiernos casi no han brindado apoyo para la investigación de la desinformación digital.
En segundo lugar, necesitamos más transparencia. La investigación se ve gravemente obstaculizada por la falta de acceso a los datos de las plataformas de redes sociales.
Los informes de transparencia generalmente revelan estadísticas agregadas sobre lo que los anunciantes compran o lo que los gobiernos exigen, y proporcionan una visión limitada de lo que los usuarios comparten. Pero no dicen casi nada sobre cómo las plataformas se están comportando como influencers independientes, determinando a qué contenido están expuestos los usuarios y a qué grupos se les anima a unirse.
En tercer lugar, la formación ética para tecnólogos es fundamental. A medida que las desventajas de las nuevas tecnologías se han hecho cada vez más evidentes, las universidades líderes se han puesto más en sintonía con el problema. Por ejemplo, Stanford, Harvard y el MIT, que ayudaron a producir algunos de los principales tecnólogos de Silicon Valley, están desarrollando nuevos cursos (“Ética de la disrupción tecnológica”) y centros de ética (como el Centro de ética, sociedad y tecnología de Stanford).
Por último, dado que el problema de la desinformación abarca múltiples plataformas en línea y afecta tanto al sector público como al privado, será esencial una infraestructura de coordinación más intersectorial. Sin embargo, hasta la fecha, hay sorprendentemente poca infraestructura formal para apoyar el aprendizaje y la colaboración en el campo. Ha habido algunos esfuerzos notables, pero ninguno se centra específicamente en mejorar la calidad del ecosistema de información en línea. Más recientemente, sin embargo, la Comisión Solarium del Ciberespacio y la oficina del senador estadounidense Mark Warner han presentado propuestas de este tipo.
No hay balas de plata. Pero una combinación de las intervenciones descritas aquí puede ayudar. Como en cualquier campo, el progreso requerirá, ya sea un cambio voluntario en nombre de los actores problemáticos (plataformas de redes sociales) o mandatos gubernamentales (ya sea a través de regulación o litigio).
Las principales plataformas han prometido durante mucho tiempo que pueden abordar de forma independiente la desinformación a través de un mejor procesamiento del lenguaje natural, aprendizaje automático e inteligencia artificial. Una solución tecnológica es realmente atractiva. Las plataformas pueden responder mucho más rápido que los gobiernos, y su toma de decisiones está intrínsecamente mejor informada por los cambios en tiempo real en el mundo de la tecnología.

Apoyo desde lo tecnológico

Pero la “autorregulación” es problemática por tres razones. En primer lugar, siempre y cuando los modelos de ingresos de las plataformas dependan de una alta participación de los usuarios, es probable que el contenido emocionalmente desencadenante y provocador siga dominando. También, además de los desincentivos económicos para el cambio, las plataformas han defendido durante mucho tiempo un compromiso filosófico con la libertad de expresión. Y, a pesar de la decisión de destituir a Trump después de la insurrección del Capitolio, se han mostrado reacios a servir como “árbitros de la verdad”.
Por último, incluso si las plataformas están dispuestas a moderar el contenido, pueden carecer de las capacidades técnicas u operativas para hacerlo. Un estudio reciente encontró que entre las publicaciones que contenían desinformación potencialmente peligrosa sobre el covid-19 que ya había sido desacreditada, el 59% se mantuvo en Twitter, el 27% en YouTube y el 24% en Facebook.
Estos son los 20 puntos destinados para la aplicación de la vacuna contra el Covid -19

Estos son los 20 puntos destinados para la aplicación de la vacuna contra el Covid -19

Foto:iStock

Es evidente que el camino óptimo pasa por la supervisión gubernamental, que tiene la virtud de estar informada democráticamente y ser ejecutable. Pero la implementación de una regulación óptima en el entorno actual no será fácil, particularmente en los Estados Unidos, donde la polarización política y el estancamiento legislativo han hecho difícil avanzar en este o cualquier otro tema de gran preocupación pública.
E incluso si el gobierno estadounidense está ahora en un estado más funcional, con los demócratas controlando los poderes ejecutivo y legislativo, los incentivos gubernamentales para regular las empresas tecnológicas se complican por el hecho de que los ‘Cinco Grandes’ —Facebook, Amazon, Apple, Microsoft y Google— tienen una capitalización de mercado combinada equivalente al 20% del PIB estadounidense. Algunos de estos gigantes de la tecnología se unieron recientemente a las filas de los diez mejores grupos de presión en los Estados Unidos.
Por lo tanto, cualquier normativa propuesta que parezca amenazar los modelos de negocio principales de estas empresas se enfrentará a una resistencia feroz y bien financiada. E incluso si el gobierno estadounidense (o, lo que es más probable, la UE) resulta ser capaz y está dispuesto a actuar, tendrá que sopesar muchas compensaciones difíciles: privacidad versus transparencia; libertad de expresión versus precisión; diversidad versus acuerdo epistémico.
Para estimular al gobierno a actuar, a pesar de estos desafíos, la presión pública será esencial. Ya ha habido algunos boicots por parte de los usuarios (#DeleteFacebook)(#BorrarFacebook) y los clientes, como los compradores de anuncios corporativos que se unen a iniciativas como #StopHateForProfit (#DetenerElOdioConFinesDeLucro) y Sleeping Giants. Para lograr un cambio real, esta energía y atención públicas tendrán que aumentarse y mantenerse a lo largo del tiempo.
A medida que la plaza pública se ha movido en línea, las sociedades han comenzado a fragmentarse a lo largo de líneas raciales, religiosas, partidistas y económicas. Las plataformas de redes sociales, en lugar de los periodistas acreditados, ahora tienen un poder significativo no sólo para comunicarse con el público, sino también para resaltar temas clave y unir a extraños con ideas afines, enredando a estos nuevos grupos en sus propios sistemas de información distintos (a veces inexactos).
Esta tendencia puede ser constructiva o destructiva. El poder de informar, unir y organizar casi al instante a escala global no tiene precedentes. Aunque ofrece muchos beneficios, la nueva plaza pública ha sido diseñada para maximizar el crecimiento de los ingresos, y así promover el compromiso al dirigir a los usuarios hacia contenido novedoso y emocionalmente estimulante, sin importar cuán falso, manipuladores e incendiarios sea.
Entre las posibles soluciones esbozadas aquí, cuatro intervenciones parecen más prometedoras: mejora de la transparencia y el acceso a los datos; investigación sobre los efectos de la desinformación y las posibles soluciones; capacitación en alfabetización digital y en ética tecnológica; y el desarrollo de infraestructura de coordinación formal e informal. A menos que se haga un trabajo significativo en este sentido para mejorar el entorno de información actual, es difícil imaginar un futuro en el que el discurso basado en la evidencia ancle la conciencia pública.

Los límites de la protección de la privacidad

Los datos de usuario desempeñan un papel clave en la propagación de la desinformación, al permitir una segmentación efectiva de la audiencia. Con herramientas como las audiencias “personalizadas” o “similares” de Facebook, los anunciantes pueden dirigir la desinformación específicamente a todos aquellos que podrían compartir algunas similitudes con, por ejemplo, los antivacunas u otras personas propensas a creer en teorías de conspiración.
Como argumenta el exdirector de seguridad de Facebook, Alex Stamos, limitar el uso por parte de terceros de los datos que permiten la publicidad personalizada puede desactivar la desinformación privándola de un objetivo. Y sin un objetivo, hay una mayor probabilidad de que este contenido simplemente se convierta en ruido digital.
Los libros de Fukuyama (Chicago, 1952) se han traducido a más de 20 idiomas. Ha recibido múltiples premios y siete doctorados ‘honoris causa’.

Los libros de Fukuyama (Chicago, 1952) se han traducido a más de 20 idiomas. Ha recibido múltiples premios y siete doctorados ‘honoris causa’.

Foto:Djurdja Padejski

Expertos como Francis Fukuyama (Universidad de Standford), advierten que la privacidad no es una panacea. Para empezar, una mayor privacidad no reduciría la concentración de poder editorial sin precedentes que ahora comandan las plataformas líderes.
Fukuyama compara esta gratificación con “un arma cargada sobre una mesa”: es tolerable, para algunos, bajo el actual liderazgo de la plataforma (presumiblemente liberal), pero no es sostenible ni, en última instancia, compatible con la democracia liberal.
Al impedir que los nuevos participantes acumulen tiendas masivas de datos de usuarios, las leyes de privacidad más estrictas podrían bloquear el poder de mercado de pioneros como Google y Facebook, que presumiblemente retendrían el acceso a los datos que ya han acumulado.

¿Estructuras sustitutivas?

Ahora se entiende bien que las empresas de redes sociales posicionan a los anunciantes como “el cliente” y a los usuarios como “el producto” cuya atención se está vendiendo. Pero este modelo de negocio no es inevitable. Una alternativa es el modelo de suscripción, mediante el cual los usuarios pagarían por acceder a los servicios de una plataforma como Facebook, obviando la necesidad de que el contenido más “atractivo” sea elevado sobre todo lo demás.

Si establecemos un impuesto del 1% sobre la publicidad altamente vigilada... podemos crear fácilmente un fondo anual de 1.200 millones de dólares para apoyar los medios digitales de servicio público

Sin embargo, esto no funcionaría en países poco desarrollados. De hecho, la falta de voluntad demostrada de muchos lectores para pagar las suscripciones a periódicos, incluso en los países ricos, empaña las perspectivas de este modelo.
Otros han pedido una “plaza pública digital” sin fines de lucro financiada por el gobierno. Esto podría financiarse, por ejemplo, mediante la imposición de impuestos a las empresas de redes sociales para apoyar la “infraestructura pública digital”, similar a la radiodifusión pública en muchos países. “Actualmente, la industria de la publicidad digital es un mercado global de 333.000 millones de dólares”, señala Ethan Zuckerman, de la Universidad de Massachusetts Amherst. “Si establecemos un impuesto del 1% sobre la publicidad altamente vigilada... podemos crear fácilmente un fondo anual de 1.200 millones de dólares para apoyar los medios digitales de servicio público”.
Pero, de nuevo, estos modelos enfrentan complicaciones cuando se trata de financiación y uso. Muchos países, incluidos los Estados Unidos, tienen presupuestos y apetitos dramáticamente más bajos para financiar la radiodifusión pública; y en los Estados Unidos, especialmente, es poco probable que eso cambie.
Del mismo modo, es poco probable que la suposición de que “si lo construimos, vendrán” sea cierta en este ámbito. Las audiencias que tienen apetito por contenido confirmatorio y polarizante lo buscarán donde puedan encontrarlo. El Servicio Público de Radiodifusión (PBS) en los Estados Unidos se ha enfrentado a audiencias menguantes. Incluso países como el Reino Unido, con sus sustanciales presupuestos de medios públicos (piensen en la BBC), enfrentan problemas de desinformación.

Problema del antimonopolio

Más allá de la privacidad de los datos, otra propuesta ampliamente discutida “rompería las plataformas”. Dado el papel casi monopólico que empresas como Facebook, Google y Twitter desempeñan en el ecosistema de información actual, la acción antimonopolio ha llegado a ser vista no sólo como un remedio económico, sino también político. Si solo los usuarios tuvieran más alternativas para elegir, según este argumento, ninguna plataforma podría representar una mayor amenaza para el discurso público.
Pero aquellos que piden la aplicación de la ley antimonopolio contra las principales plataformas pueden estar sosteniendo un martillo y viendo cada problema como un clavo. La ley antimonopolio es una herramienta que los reguladores ya conocen. Y dado el dominio de las plataformas, incluso puede encajar desde el punto de vista económico. Pero si es el mejor instrumento para abordar el problema de la desinformación es otra cuestión.
La aplicación de la ley antimonopolio se enfrenta a dos desafíos fundamentales cuando se aplica a la desinformación. En primer lugar, en los Estados Unidos, donde se encuentran las principales plataformas, la ley antimonopolio tendría que ser revisada drásticamente. A diferencia del Reino Unido y de otros lugares, la ley antimonopolio estadounidense se basa actualmente en el principio de “daño al consumidor” financiero.
La mayoría de ellas corresponden a redes sociales.

La mayoría de ellas corresponden a redes sociales.

Foto:TikTok / Facebook / Instagram / WhatsApp.

Pero con las redes sociales, los daños a los usuarios no son monetarios; los servicios que las plataformas están “vendiendo” son gratuitos, porque los “usuarios” son el producto. Por lo tanto, la legislación antimonopolio estadounidense debería reformularse para tener en cuenta los diferentes tipos de daño. Y los reguladores tendrían que resolver preguntas espinosas sobre cómo definir los “mercados” de las redes sociales y determinar las dimensiones a lo largo de las cuales las plataformas deben ser “desmanteladas”.
Incluso si fuera factible, no está claro si la acción antimonopolio tendría el efecto deseado. Al igual que con la solución propuesta de “middleware”, la creación de una multitud de plataformas puede hacer que la desinformación sea más difícil de monitorear y regular. Aunque introducir más competencia podría resolver el problema de algunas plataformas que exponen audiencias enormes a contenido extremo, poco científico o polarizante, la proliferación de plataformas más pequeñas podría aislar a los usuarios con creencias marginales en cámaras de eco más herméticas (lo que es probablemente el menor de dos males, pero sin embargo problemático).
(También le recomendamos: ¿La globalización impulsa la innovación?).
Por último, no está claro que la ruptura de las principales plataformas sea incluso posible a largo plazo. Debido a los “efectos de la red”, en los que el valor de una red aumenta con el tamaño de su base de usuarios, otra plataforma podría ganar rápidamente una posición de monopolio a medida que todos acuden a donde están todos sus amigos. Un Facebook bebé podría simplemente crecer para ser tan grande o más grande que su padre.

Más noticias A fondo

-KELLY BORN
(*): Directora ejecutiva del Centro de Política Cibernética de la Universidad de Stanford. © Project Syndicate - Stanford
Kelly Born - Project Syndicate
icono el tiempo

DESCARGA LA APP EL TIEMPO

Personaliza, descubre e informate.

Nuestro mundo

COlombiaInternacional
BOGOTÁMedellínCALIBARRANQUILLAMÁS CIUDADES
LATINOAMÉRICAVENEZUELAEEUU Y CANADÁEUROPAÁFRICAMEDIO ORIENTEASIAOTRAS REGIONES
horóscopo

Horóscopo

Encuentra acá todos los signos del zodiaco. Tenemos para ti consejos de amor, finanzas y muchas cosas más.

Crucigrama

Crucigrama

Pon a prueba tus conocimientos con el crucigrama de EL TIEMPO