por;Rosa Miriam Elizalde
Nadie duda de que Mark Zuckerberg hace grandes esfuerzos para reinventar su monopolio. Asediado desde hace años por especular con los datos de los usuarios de Facebook, permitir la circulación de teorías conspirativas, incentivar el genocidio, transmitir masacres en vivo y manipular a los adolescentes para que no puedan dejar la pantalla, aunque los afecte, el empresario intenta cambiar el eje de la polémica, sin tocar el modelo de negocios que inició hace 18 años y que lo transformó en uno de los hombres más ricos del mundo.
La corporación Facebook cambió su nombre por Meta y anunció con bombo y platillo una enorme inversión para construir el Metaverso, un espacio de realidad virtual en que se podría hacer todo, como si se estuviera físicamente en el lugar elegido.
¿Por qué este cambio? Sin que aluda directamente a ello, la respuesta puede encontrarse en un libro que acaba de salir en español, de las periodistas de The New York Times Sheera Frenkel y Cecilia Kang, Manipulados. La batalla de Facebook por la dominación mundial (Editorial Debate, 2021). En inglés: An Ugly Truth: Inside Facebook’s Battle for Domination.
En los océanos de tinta que se le han dedicado a la plataforma, es la primera vez que se documentan más de mil horas de entrevistas con ejecutivos, antiguos y actuales empleados y sus familiares, amigos y compañeros de clase de Zuckerberg, además de inversores y asesores de Facebook, y abogados y activistas que llevan mucho tiempo luchando contra la empresa. Las autoras tienen mejores fuentes que todos sus predecesores en el género y logran desmenuzar el modelo de negocio concebido deliberadamente para aniquilar la competencia y exprimir a una tercera parte de los habitantes del planeta, con unas ganancias de 85 mil 900 millones de dólares en 2020, y un valor de mercado de 800 mil millones.
Frenkel y Kang demuestran que "las megaganancias de la red social se han producido repetidamente a expensas de la privacidad y la seguridad del consumidor y la integridad de los sistemas democráticos. Sin embargo, eso nunca se interpuso en su camino hacia el éxito". Su posición privilegiada se la deben a la visión de conjunto que les ofrece la plataforma a sus directivos, con un equipo de inteligencia contra amenazas que “ha trabajado anteriormente en la Agencia de Seguridad Nacional, en la FBI y en otros organismos gubernamentales, estudiando precisamente a los hackers y otros enemigos que ahora tienen bajo vigilancia”.
Una de las sorprendentes revelaciones del libro es que hay más crítica dentro de la empresa de lo que pensamos. Muchos empleados de Facebook han intentado alertar sin éxito a sus superiores sobre los desastres que provocan unos algoritmos obsesionados con el crecimiento de la plataforma y la ganancia. Algunos incluso advirtieron sobre la catástrofe de Myanmar.
Los ejecutivos de la compañía no sabían nada sobre ese país, slavo que era un nuevo territorio por conquistar. Al entrar en Myanmar, Facebook "arrojó un fósforo encendido a décadas de tensión racial cocinadas a fuego lento y luego miró a otro lado cuando los activistas señalaron que el humo asfixiaba lentamente al país", afirma el libro. Al final, la ONU declaró que las tensiones étnicas habían derivado en un genocidio en toda regla con la "contribución sustancial" de la compañía del pulgar azul. Estimó que 24 mil rohinyás fueron asesinados y 700 mil musulmanes huyeron a Bangladesh.
Mientras eso ocurría, subía de tono la retórica incendiaria de 18 millones de usuarios de la red social que eran monitoreados sólo por cinco hablantes nativos de Birmania, ninguno de los cuales vivía en Myanmar. (Hace dos semanas se supo que decenas de miles de refugiados rohinyás han demandado a Facebook –hoy Meta– en Estados Unidos y Reino Unido, por promoción del discurso de odio.)
El libro demuestra que este caso es quizás el ejemplo más extremo de cómo los algoritmos de la plataforma privilegian el extremismo, pero no el único. Más de 90 por ciento de los usuarios activos de Facebook viven fuera de Estados Unidos y Canadá, y la empresa suele hacerse de la vista gorda ante el discurso de odio, porque estimula el crecimiento de los usuarios sobre todo en las "zonas oscuras" del planeta que llegan tarde, y mal, a la Internet.
Pero el asalto al Capitolio de Washington hace un año ubicó el problema en casa, algo que hemos padecido también los cubanos por derivación de las políticas de línea dura hacia la isla que campean en Florida y las profundas brechas de seguridad de la plataforma social.
El libro muestra la incapacidad lingüística de entender, y por ende moderar, millones de publicaciones de usuarios en comunidades de habla no inglesa; la incomprensión de sus propios algoritmos; la inacción a la hora de intervenir donde los programas de inteligencia artificial no llegan (la compañía sólo adopta medidas entre 3 por ciento y 5 por ciento de los casos de discursos de odio, y en 0.6 por ciento de las publicaciones de contenido violento); y un palpable descuido, desidia incluso, a la hora de responder a las denuncias de los usuarios.
De modo que la "fea verdad" de Facebook es el negocio tóxico de una empresa privada dispuesta a mantener a cualquier precio la hegemonía y el dominio sobre millones de súbditos digitales. Uno de los entrevistados por las periodistas comenta que "el problema de Facebook es Facebook". Falso. El problema de Facebook es el sistema diseñado para que estos monopolios no sólo prosperen, sino que hasta cambien de nombre para perpetuarse. La pregunta que plantean Frenkel y Kang parece entonces pertinente: ¿qué vamos a hacer ante esta realidad?
(Publicado originalmente en La Jornada, de México)
Rosa Miriam Elizalde
Vice Presidenta Primera de la UPEC. Periodista y editora cubana, doctora en Ciencias de la Comunicación y profesora de la Universidad de La Habana. Columnista del diario La Jornada, de México. Tiene varios libros publicados. Fue fundadora y editora del semanario digital La Jiribilla y del diario on line Cubadebate.
No hay comentarios:
Publicar un comentario