Conoce la razón por la que Apple irá un paso más allá y ahora denunciará todas las fotos en iCloud que contengan abuso infantil
La nube es uno de los lugares del internet que más vulnerable está y es que muchos de los usuarios no hacen un buen uso de esta y guardan allí contenido que no debería ser público y además las personas no deberían tener.
Es posible que hayas escuchado hablar de la pornografía infantil y demás situaciones que incluyen a los niños de una manera poco agradable y que incluso puede incurrir en delito, y es justamente por ello que se busca regular esto aún más.
A pesar que hay leyes y todo lo demás de regulan y amenazan a las personas con tomar medidas legales en caso de encontrarse con este tipo de contenido, muchos de estos “usuarios” se las ingenian para poder seguir cometiendo delitos.
La nube e de esos lugares que estas personas emplean para almacenar este tipo de contenido delictivo pero ahora se tomarán medidas en la nube también y es exactamente de esto de lo que nosotros queremos hablarte en esta oportunidad.
Nuevos cambios en la nube iCloud por parte de Apple
Si eres de los que almacena infinidad de fotografías y demás archivos en la nube esto puede interesarte y es que habrá cambios en esta, al menos es lo que Apple ha dado a conocer para su nube iCloud.
Según lo que ha dicho la compañía los cambios se darán pie con la finalidad de proteger a los menores de edad y evitar que las herramientas de comunicación de Apple sean utilizadas por depredadores quienes buscan propagar material que demuestra abuso sexual infantil en Estados Unidos.
El CSAM o sistema de detección de Material de Abuso Sexual Infantil empleará un proceso llamado “hash” mediante el cual se analizarán las fotos empleándose un conjunto de números con un patrón único correspondiente a la imagen.
Por ahora las pruebas para esto han comenzado a funcionar el pasado jueves y aunque por ahora e algo a pequeña escala, de a poco llegará a todos los usuarios de iOS 15, iPad 15 y de macOS Monterey donde llegará con una actualización más adelante.
Apple mediante esta herramienta podrá ver las fotos que están en iCloud pero solamente si es necesario hacerlo, puesto a que este sistema solo escaneará las fotos de forma segura y el sistema es avanzado en criptografía por lo que la privacidad de los usuarios se mantiene.
Este proceso al que han llamado “hash” no analiza las imágenes como tal sino los hashes que serían definidos como un conjunto de números correspondiente a cada imagen que son generados y los comparará con la base de datos de hashes original provista por el Centro Nacional para Niños Desaparecidos y Explotados o NCMEC por sus siglas en inglés y dicha comprobación se hace en el dispositivo del usuario y no en la nube como tal, según explica Apple.
Al Apple detectar potenciales archivos infractores en una cuenta iCloud, entonces el sistema cargará un archivo que será el que le permita a Apple desencriptar los archivos en la nube y una persona de forma manual revisará las imágenes de la cuenta y verifica si se trata de imágenes en las que se muestre abuso infantil.