Tendencias

Empleados de WhatsApp revisan millones de mensajes privados, según informe

ProPublica, un medio que estudia casos de abuso de poder, reveló datos sobre prácticas de la app.

WhatsApp es la app de mensajería más descargada del mundo. FOTO: Ritchie B. Tongo. EFE

La privacidad es una de las banderas de Facebook Inc. y todas sus redes sociales. Al menos eso dicen sus principales ejecutivos y también está indicado en sus políticas.

"Nadie fuera de este chat, ni siquiera WhatsApp, puede leer o escuchar los mensajes", se lee en absolutamente todas las conversaciones que cada usuario tiene en la plataforma. Esto se debe a un cifrado de extremo a extremo que se convirtió en una insignia de la app y una demostración del paso a la privacidad absoluta que han querido dar Mark Zuckerberg y Facebook en los últimos años.

También, en 2018, en testimonio al Senado de Estados Unidos, Zuckerberg, como presidente de Facebook, aseguró que ellos "no ven los contenidos que se envían a través de WhatsApp".

Pero, ¿qué tan cierto es esto? ¿Sí están 100 % protegidos? ¿Qué tan efectivo es el cifrado de extremo a extremo? Un nuevo informe de ProPublica reveló que hay equipos de WhatsApp que no solo leen y revisan mensajes, sino que los modifican en algunos casos o, incluso, los pasan a organizaciones de justicia para que sean procesados.

"Whatsapp tiene más de 1,000 contratistas que están en oficinas de Texas, Dublin y Singapur. Sentados en sus puestos, estos empleados usan un software de Facebook para tamizar millones de mensajes privados, imágener y videos", se lee en el informe de ProPublica titulado 'How Facebook Undermines Privacy Protections for Its 2 Billion WhatsApp Users' (¿Cómo Facebook socava las protecciones de privacidad para sus 2 mil millones de usuarios de WhatsApp?).

Estos mil empleados revisan los mensajes que aparecen en sus pantallas y también dan su juicio sobre los contenidos. Pero, ojo, no revisan todos los mensajes que se envían, más allá de que sería imposible.

Estos trabajadores terminan dando su concepto sobre los millones de mensajes, fotos y videos que fueron catalogados por usuarios como "potencialmente abusivos" (pornografía infantil, spam y odio).

Esta es una de las tantas estrategias de las empresas detrás de las redes sociales de Facebook Inc. para ofrecer entornos más seguros y prevenir cualquier tipo de abuso. Pero, ¿cuál es entonces el problema?

Lo primero, como le dijo Carl Woog, director de comunicaciones de WhatsApp, a ProPublica, es que la red social no considera este trabajo como una "moderación de contenido", algo que sí está contemplado entre las prácticas de Facebook e Instagram, por ejemplo. La gran diferencia es que en los casos de estas dos últimas los mensajes no están encriptados.

Además, estas redes sociales tienen reportes de contenido removido y catalogados abiertamente como ofensivos. Para WhatsApp no existen este tipo de informes.

Por otro lado, ProPublica también indicó que WhatsApp comparte ciertos datos privados con entes judiciales, como el Departamento de Justicia de EUA. Esas son apenas unas de las revelaciones del amplio informe de ProPublica, que puede leer haciendo clic en este enlace.

Lee también

Comentarios

X

Suscríbete a nuestros boletines y actualiza tus preferencias

Mensaje de response para boletines