in , ,

«Parler» tiene menos de 24 horas para cambiar su contenido o será eliminada de la App Store

Apple ha informado a la red social Parler que tiene 24 horas para eliminar el contenido inapropiado de la plataforma, de lo contrario, enfrenta la eliminación de la App Store. En Input Mag, obtuvieron copia del correo electrónico enviado por Apple a Parler.

Apple escribió en el correo electrónico que no está de acuerdo con el enfoque de moderación de no intervención de Parler, enfatizando que no distribuirá aplicaciones que incluyan los tipos de contenido que se encuentran en Parler. Apple dice que Parler es responsable de todo el contenido generado por el usuario, según las Pautas de revisión de la App Store.

Queremos dejar claro que Parler es de hecho responsable de todo el contenido generado por el usuario presente en su servicio y de asegurar que este contenido cumpla con los requisitos de la App Store para la seguridad y protección de nuestros usuarios”, dijo la compañía. «No distribuiremos aplicaciones que presenten contenido peligroso y dañino.

Apple cita específicamente como ejemplo las «actividades ilegales» que tuvieron lugar en Washington DC el 6 de enero. Apple escribe que se utilizó a Parler para «planificar, coordinar y facilitar» lo que sucedió.

Hemos recibido numerosas quejas sobre contenido objetable en su servicio de Parler, acusaciones de que la aplicación Parler se utilizó para planificar, coordinar y facilitar las actividades ilegales en Washington DC el 6 de enero de 2021 que llevaron (entre otras cosas) a la pérdida de vidas , numerosos heridos y destrucción de propiedad. La aplicación también parece seguir utilizándose para planificar y facilitar aún más actividades ilegales y peligrosas.

Apple compartió enlaces a varios ejemplos de publicaciones de Parler que incitan a la violencia en el correo electrónico, que no se limitan a, pero incluyen:

Si el contenido citado por Apple, y todo el contenido similar, no se elimina en menos de 24 horas, la aplicación Parler será expulsada de la App Store. Parler, que ha adoptado públicamente un enfoque de no intervención hacia la moderación, también debe demostrarle a Apple que adoptará sistemas y prácticas para evitar que este tipo de contenido aparezca en la red social en el futuro.

Elimine todo el contenido objetable de su aplicación y envíe su binario revisado para su revisión. Dicho contenido incluye cualquier contenido similar a los ejemplos adjuntos a este mensaje, así como cualquier contenido que se refiera a daños a personas o ataques a instalaciones gubernamentales ahora o en cualquier fecha futura. Además, debe responder a este mensaje con información detallada sobre cómo pretende moderar y filtrar este contenido de su aplicación, y qué hará para mejorar la moderación y el filtrado de contenido de su servicio para este tipo de contenido objetable en el futuro.

Apple cita específicamente la pauta 1.2 de sus Pautas de revisión de la App Store, que dice que las aplicaciones con contenido generado por el usuario también deben tener precauciones para administrar el contenido de las objeciones:

Directriz 1.2 – Seguridad – Contenido generado por el usuario

Su aplicación permite la visualización de contenido generado por el usuario, pero no tiene las precauciones necesarias para administrar de manera eficaz el contenido objetable presente en su aplicación.

Finalmente, Apple también citó comentarios del CEO de Parler, John Matze, en los que dijo que él no “se siente responsable de nada de esto y tampoco la plataforma”, en referencia a los disturbios en el Capitolio en Washington DC esta semana.

Su CEO fue citado recientemente diciendo: «Pero no me siento responsable de nada de esto y tampoco debería hacerlo la plataforma, considerando que somos una plaza neutral que simplemente se adhiere a la ley». Queremos dejar claro que Parler es de hecho responsable de todo el contenido generado por el usuario presente en su servicio y de garantizar que este contenido cumpla con los requisitos de la App Store para la seguridad y protección de nuestros usuarios. No distribuiremos aplicaciones que presenten contenido peligroso y dañino.

En respuesta a la amenaza de Apple de prohibir a Parler en la App Store, el copropietario de Parler, Dan Bongino, publicó en la plataforma que esta es «claramente una decisión idealológica, no de principios». Continuó pidiendo a los usuarios de Parler que «hagan correr la voz sobre esta guerra destructiva contra las libertades civiles».

Dado que Parler ha promocionado públicamente que siempre adoptará un enfoque de no intervención hacia la moderación, queda por ver si cederá ante la presión de Apple. Dado que Apple envió su correo electrónico esta mañana, deberíamos saber la respuesta tan pronto como el reloj de 24 horas expire en algún momento del sábado por la mañana.

Escrito por Julian Ramirez

Community manager y curioso por la tecnología

154 Comentarios

    TikTok presenta su efecto AR con el sensor LiDAR de los iPhone 12 Pro

    Apple hará cargadores USB-C más rápidos y pequeños