En la aldea
02 diciembre 2024

Cecilia Kang es periodista de tecnología del New York Times y ha investigado a Facebook durante varios años (Foto: Beowulf Sheehan).

Cecilia Kang:

“La gente en realidad no sabe lo peligroso que es el algoritmo de Facebook”

En medio de la más grande crisis de credibilidad en la historia de Facebook, Diario Criterio habló con Cecilia Kang, la periodista del New York Times que ha denunciado las malas prácticas de la empresa y de su fundador. “Él es la compañía. Facebook es Mark Zuckerberg y Mark Zuckerberg es Facebook. Y me parece muy importante entender que la empresa es una encarnación de sus decisiones, su personalidad y sus ambiciones”.

Lee y comparte

Facebook, la compañía de Mark Zuckerberg, acaba de vivir el peor año en su corta historia de vida. A las denuncias de una exempleada (Frances Haugen) y la filtración de documentos privados que demuestran que sus directivos saben que los productos de la red social alimentan el odio y dañan la salud mental de los niños, y que hacen muy poco para evitarlo, se sumó esta semana  una caída histórica en las acciones de la empresa (un 27%), que ahora se llama Meta.

La razón: un informe de resultados en el que queda claro que Facebook está estancada. Por un lado, la base de usuarios no creció durante el trimestre pasado -es la primera vez que ocurre desde su creación-. Por el otro, tuvo un 8% menos de beneficios en el mismo periodo debido al crecimiento lento frente a otras empresas de la competencia, como TikTok, y a los gastos en los que han incurrido para crear el llamado metaverso.

Mientras eso ocurre, en Estados Unidos se sigue hablando de regular a la compañía y su algoritmo, así como de desintegrarla para que deje su comportamiento monopólico. Justo cuando aumentan las voces de preocupación de los expertos por la forma en la que la empresa (dueña de Facebook, WhatsApp e Instagram) vende o filtra la información privada de sus usuarios, atiza la polarización con sus algoritmos basados en promover las emociones y no hace lo suficiente para controlar la propagación de fake news (noticias falsas).

“Las redes sociales no sobrevivirán siendo lo que son hoy, lo que se viene es una fusión entre el mundo virtual y el mundo real, en la que pasaremos mucho tiempo”

Cecilia Kang, periodista del New York Times

Para entender lo que está pasando y dimensionar el peligro del que hablan muchos de los críticos de la compañía, Diario Criterio habló con Cecilia Kang, periodista del New York Times especializada en tecnología, negocios y regulación, y quien el año pasado publicó, junto a su colega Sheera Frenkel, el libro Manipulados: La batalla de Facebook por la dominación mundial, una investigación en la que revelan muchas de las prácticas oscuras de la compañía, luego de revisar documentos internos y de hablar con casi 400 fuentes (varias de ellas, personas anónimas dentro de la empresa). Esta fue la conversación:

Los peligros de Facebook

-Diario Criterio: La gente normalmente lee noticias o ve televisión y escucha sobre las polémicas de Facebook con la filtración de información privada, los algoritmos, las fake news. Pero pueden pensar: “Yo no hago nada extraño, simplemente hablo con amigos, subo algunas fotos, comparto noticias”. ¿Cómo les explicaría a ellos qué tan peligroso es Facebook?

-Cecilia Kang: Esa pregunta es clave, porque fue un poco lo que nos llevó a la investigación que se convirtió en el libro. Sheera Frenkel, mi compañera, y yo llevábamos escribiendo sobre Facebook y sus controversias por muchos años, así que queríamos entender si estos eran problemas accidentales o si había un tema de fondo, un problema mucho más grande en el sistema. Y lo que descubrimos es que esta no es una historia tipo Frankenstein. Es decir, Facebook no fue un experimento que a sus creadores se les salió de control y se convirtió en un monstruo por accidente. Por el contrario: sus creadores tomaron varias decisiones de forma consciente que directamente llevaron a los problemas que se viven hoy. Y mucho de eso tiene que ver con cómo funciona la tecnología que los usuarios usan todos los días. Así que aunque la gente cree que conoce a Facebook, en realidad no sabe cómo funciona y lo peligroso que es su algoritmo.

-¿Y cuál es el peligro concreto de esa tecnología?

-Tiene que ver con cómo los algoritmos amplifican, algunas veces, los contenidos más peligrosos (los de odio, los falsos, los que generan emociones). Y cómo las decisiones de los líderes de la compañía a menudo priorizan el crecimiento sobre la seguridad y la protección de los usuarios. Lo más terrible es que estos problemas, como la filtración de información privada, la propagación de noticias falsas y el algoritmo que promueve contenidos peligrosos, no son accidentes sueltos, todo hace parte de la forma de manejar la empresa. Y la solución está en las manos de sus líderes, pero no la implementan.

-Usted y su compañera Sheera Frenkel cubrían como periodistas de tecnología todo lo relacionado con Facebook y sus polémicas. ¿En qué momento se dieron cuenta de que esto podía convertirse en una investigación más grande?

-Fueron dos cosas. Por un lado empezamos a ver un patrón que se repetía una y otra vez: había un gran escándalo y Facebook se disculpaba con el público, prometían que no iba a volver a pasar y luego aparecía otro gran escándalo, se volvían a disculpar y el ciclo se repetía una y otra vez. Así que quisimos entender qué era lo que estaba pasando, qué había detrás de ese patrón. Por otro lado, varios trabajadores de la compañía decidieron hablar con nosotros y denunciar cosas que estaban pasando adentro. Nos dijeron que aunque Facebook le estaba diciendo al público que la filtración de información o el crecimiento de las fake news para las elecciones de 2016 eran accidentes que nadie podía esperar que ocurrieran, en realidad era algo que todos sabían y que se veía venir. Tanto, que esos mismos empleados se lo habían estado advirtiendo por años a los grandes ejecutivos, pero ellos nunca hicieron nada.

Portada del libro escrito por Cecilia Kang y su colega Sheera Frenkel.

-¿Fue difícil hablar con estas personas?

-Fue muy difícil. Sheera y yo tenemos historias increíbles. Ella, por ejemplo, solía ir al Starbucks cerca del campus de Menlo Park (donde quedan las oficinas de Facebook) y se sentaba ahí por horas, solo para pasarle su tarjeta a cualquiera que fuera un empleado de Facebook. Yo probablemente contacté a cientos de personas a través de Linkedin. Nos tomó mucho tiempo. Para escribir el libro hablamos con unas 400 personas, pero eso no incluye a todas las que no respondieron o no quisieron decir mucho. Fue también una cuestión de paciencia. Nosotras llevábamos varios años escribiendo y haciendo reportería sobre Facebook, así que habíamos establecido relaciones de confianza con mucha gente. Pero es algo que lleva tiempo. Algunas veces pasaban hasta 10 reuniones hasta que finalmente escuchabas algo que realmente valía la pena y que nadie había dicho antes. Y una vez empezaban a confiar en nosotros, nos recomendaban con otras personas, porque estaban seguros que íbamos a usar bien la información que nos daban.

Las denuncias y el poder de Mark Zuckerberg

-Justo unos meses después de la publicación de su libro, salieron los llamados Facebook Papers y las declaraciones de Frances Haugen, una exempleada de Facebook que filtró varios documentos que dejaron mal parada a la compañía. ¿Se esperaban esa filtración?, ¿qué tan distinto fue lo que salió de lo que ustedes habían investigado?

-Fue una sorpresa absoluta. No sabíamos que lo iba a hacer, pero nos sentimos muy validadas porque ella dijo exactamente lo mismo que nosotras habíamos dicho en el libro. De hecho, el mensaje de fondo era el mismo: que hubo muchas advertencias internas sobre lo que estaba pasando, pero los ejecutivos de la compañía no hicieron caso. Lo que ella sí tenía, a diferencia de nosotros, era una gran cantidad de documentos internos. Nosotros teníamos varios, pero ella tenía muchos más.

-¿Qué tan poderoso es Mark Zuckerberg en realidad en Facebook?, ¿qué tanto estas decisiones polémicas pasan por sus manos?

-Él es la compañía. Facebook es Mark Zuckerberg y Mark Zuckerberg es Facebook. Y me parece muy importante entender que la empresa es una encarnación de sus decisiones, su personalidad y sus ambiciones. Él es una persona sumamente ambiciosa y competitiva. Él tiene el mayor control de las acciones con derecho a voto, así que es quien toma la decisión final en todo. Y aunque por muchos años no le interesó nada de lo que tuviera que ver con políticas de la compañía, las relaciones con el mundo político y la seguridad de los usuarios, en 2016 no pudo ignorarlo más y le tocó tomar decisiones sobre esos temas también. Y no hizo nada con las advertencias acerca del peligro de los algoritmos. Solo le interesaba crecer.

“La regulación es inevitable, pero no sucederá pronto. Va a tomar mucho tiempo encontrar la forma de regular los temas de fondo, como la forma en la que funciona la tecnología”

Cecilia Kang, periodista del New York Times

-¿Zuckerberg sabía desde el inicio del poder de acceso a la información privada que le iba a dar Facebook o eso fue algo que la empresa descubrió luego, por accidente?

-Él lo entendió muy temprano. En nuestro libro tenemos un intercambio de mensajes de texto entre él y un amigo de Harvard, de cuando Facebook hasta ahora era una red social muy pequeña que solo conectaba a gente de esa universidad, en los que él le dice “oye, si necesitas, tengo miles de emails, sms, información que toda esta gente comparte conmigo sin darse cuenta”, incluso usa la palabra “idiotas”. Lo que no entendía aún, y yo creo que ni siquiera le interesaba, era la posibilidad de convertir eso en un negocio. Él solo quería que su red social creciera y se convirtiera en un sitio muy popular. Lo del negocio lo entendió, más adelante, la segunda persona más poderosa de Facebook: Sheryl Sandberg.

El metaverso y el futuro de Facebook

-Justo por los días de la peor polémica en décadas, y cuando pasan una situación complicada por el estancamiento de usuarios y la caída de acciones, Facebook y Zuckerberg le están apostando al Metaverso, tanto que cambiaron el nombre de la empresa por Meta. ¿Usted cree que eso ya estaba planeado o es un intento de desviar la atención?

-Zuckerberg había estado mirando hacia el metaverso por mucho tiempo. Él, de hecho, entendió muy temprano, hace casi una década, la importancia de la realidad virtual y de la realidad aumentada para su negocio. Por eso en esa época compró Oculus VR, una empresa que se dedicaba a esos temas. Él no entiende aún completamente cómo esas herramientas pueden usarse para su herramienta del metaverso, pero sí lleva trabajando en ella varios meses. Pero más allá de eso, sí es verdad que el lanzamiento y el cambio de nombre fue una distracción muy oportuna para todo lo que estaba pasando.

-¿Cuándo podrían tener desarrollado el metaverso?

-El metaverso, en este momento, es una carrera entre varias empresas de tecnología como Facebook, Microsoft, Apple y compañías similares. Mark Zuckerberg, como todos ellos, entiende que, en el futuro, las redes sociales no sobrevivirán siendo lo que son hoy y que lo que se viene es una fusión entre el mundo virtual y el mundo real, en la que pasaremos mucho tiempo. No solo jugando, viendo videos y compartiendo con amigos, sino en reuniones de trabajo, clases o talleres (educación) y hasta en citas de salud. Es una carrera reñida y Zuckerberg es tan competitivo que está 100% enfocado en eso. Por eso pasa lo que pasa con el crecimiento de la compañía: él está tomando todos los recursos de Facebook, que son más de 80 mil millones de dólares en ingresos cada año (una enorme reserva de efectivo) más una valoración de 800 mil millones de dólares en el mercado de valores de Estados Unidos, para invertir en el desarrollo del metaverso.

-¿Qué es lo que más le preocupa de esa apuesta por el metaverso?

-Que él no solo quiere adueñarse del hardware, sino también del software. Es decir, como en un monopolio que controla todo, quiere vender desde las gafas para conectarse a la realidad virtual, hasta la plataforma para hacerlo.

-¿Cree que algún día se podrá regular a Facebook, su algoritmo o incluso desintegrar la compañía como muchos piden?

-La regulación es inevitable, pero no sucederá pronto. Va a tomar mucho tiempo encontrar la forma de regular los temas de fondo, como la forma en la que funciona la tecnología. Sobre la división de la compañía, que proponen algunos legisladores, no lo tengo tan claro. Creo que podría ser más difícil.

La gente en realidad no sabe lo peligroso que es el algoritmo de Facebook.

*Las fotografías pertenecen a la publicación original hecha por Diario Criterio /

*El artículo original en Diario Criterio / Cultural, Global.

Lee y comparte
La opinión emitida en este espacio refleja únicamente la de su autor y no compromete la línea editorial de La Gran Aldea.
Más de Entrevistas