¿IOS 15 escanea fotos? [Explained]

51

Como cada año, como un reloj, se lanzó una nueva versión de iOS. El último, iOS 15, no solo mejora algunas de las funciones principales de iOS 14, sino que también trae muchas funciones nuevas. Como siempre, hubo cierta controversia en torno al nuevo sistema operativo. Esta vez viene en forma de Child Safety. Esta nueva incorporación prácticamente allana el camino para que Apple escanee fotos en su galería, lo que ha enojado a algunas plumas en la industria.

Hoy te contamos cómo funciona esta tecnología y te diremos si el iOS 15 de Apple escanea tus fotos privadas.

Relacionado: Explicación de la seguridad infantil de iOS 15

¿IOS 15 escaneará fotos en tu galería?

La seguridad infantil en iOS 15 es una característica recientemente introducida que tiene como objetivo detener la distribución de material de abuso sexual infantil o CSAM. Para que funcione, todos los dispositivos que ejecutan iOS 15 verifican el dispositivo de cada usuario en busca de contenido problemático y notifican a la autoridad si es necesario. Entonces, técnicamente, sí, iOS 15 escanea tus fotos bajo ciertas circunstancias.

Sin embargo, la situación, al menos desde el punto de vista de Apple, es mucho menos grave de lo que la mayoría imagina. En cambio, Apple cree que su escaneo CSAM es mucho más seguro que las técnicas que utilizan sus competidores.

Relacionado: Los mejores juegos de Android para niños [Age group-wise]

¿Cómo funciona el escaneo de fotos en iOS 15?

Si sigue los informes sensacionalistas, pensaría que los empleados de Apple podrían estar mirando sus fotos privadas una por una. Sí, entendemos que estos informes descabellados surgieron del anuncio de características demasiado simplista de Apple, pero desde entonces la compañía ha continuado y agregado más claridad a la tecnología de seguridad infantil o escaneo CSAM.

Al contrario de lo que se está percibiendo, Apple no escanea ni analiza las fotos privadas de su galería. En cambio, descarga una base de datos de imágenes conocidas de MASN del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y las compara con las fotos de su galería.

La base de datos descargada se convierte a formato de cadena (números), lo que significa que los usuarios no ven las imágenes en sus iPhones. Si se encuentra una coincidencia, se notifica al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y luego un humano revisa las coincidencias en persona. Finalmente, si el representante encuentra que la imagen es problemática, se toman las medidas apropiadas contra el abusador.

La aclaración de Apple confirma que ningún empleado humano de Apple escanea y revisa tus fotos, al menos de inmediato. La base de datos del NCMEC es la primera capa de verificación. Si y solo si se encuentra una coincidencia, la foto se envía al NCMEC, donde una persona la verifica.

Relacionado: ¿El iPhone 8 tendrá iOS 15? ¿Cuándo finaliza el soporte de Apple?

¿Puedes evitar que iOS 15 escanee tus fotos?

Sí, evitar que iOS 15 escanee tus fotos es bastante simple. Todo lo que necesitas hacer es dejar de subir tus fotos a iCloud y listo. Apple ha confirmado que la verificación se realiza solo si ha elegido cargar sus fotos en iCloud. A partir de 2021, iCloud tiene más de 170 millones de usuarios premium, lo que significa que una parte considerable de la población de teléfonos inteligentes se ve afectada por la funcionalidad de escaneo CSAM.

Relacionado: Dónde encontrar todas las funciones nuevas en iOS 15

¿IOS 15 cubre tu privacidad?

Los escépticos tienen sus reservas sobre la nueva política de Apple, y con razón. Apple siempre ha sido el mayor defensor de la privacidad, lo que aparentemente está afectando su implementación de escaneo CSAM. Sin embargo, si se cree en la justificación de Apple, no hay motivo de preocupación. En cambio, cree que la implementación de CSAM de iOS 15 es más privada que otras implementaciones.

A diferencia de otros servicios que verifican toda su biblioteca, Apple promete que solo comparará su biblioteca con la base de datos CSAM en su dispositivo, en lugar de verificar toda su biblioteca de iCloud. Si se encuentra una coincidencia, solo su foto saldrá del dispositivo y otra persona podrá verla. Además, Apple está haciendo que las bases de datos CSAM sean auditables, con la esperanza de tranquilizar a la mayoría de los escépticos.

Muchos todavía creen que los gobiernos podrían usar el escaneo CSAM de iOS 15 como una puerta trasera para buscar fugitivos buscados, apuntar a ciertos grupos demográficos y más. Apple se ha asegurado de que el escaneo de imágenes de iOS 15 se haya creado solo para bases de datos CSAM y no se puede configurar de otra manera.

Apple se ha metido en un aprieto con la digitalización CSAM, y nadie sabe si la empresa más valiosa del mundo podrá salir adelante.

Relacionado: Cómo solucionar problemas de Safari en iOS 15

¿Están habilitadas las funciones de seguridad infantil en iOS 15?

Desde que anunció las funciones, Apple se ha enfrentado a muchas críticas con respecto a su implementación. Tanto es así que aún no ha lanzado el conjunto de características de seguridad para niños. Apple no puede darse el lujo de retrasar esto demasiado, ya que los defensores de la seguridad infantil eventualmente se impacientan. No se sorprenda si Apple realiza un evento especial solo para explicar en detalle la implementación de CSAM.

RELACIONADO

  • ¿El foco no funciona en iOS 15? 10 formas de solucionar el problema
  • iOS 15: Cómo arrastrar y duplicar pestañas en Safari en tu iPhone y iPad
  • iOS 15: Cómo habilitar la copia de seguridad de iCloud a través de datos móviles en su iPhone
  • Accesibilidad por aplicación de iOS 15: cómo cambiar la apariencia de cualquier aplicación o pantalla de inicio
  • iOS 15: Cómo ver el historial de Shazam en tu iPhone y iPad

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More