Apple сканирует ваши фотографии на iPhone? Вот что вам нужно знать

Apple сканирует ваши фотографии на iPhone? Вот что вам нужно знать

Apple известна своей политикой безопасности и конфиденциальности. Но недавний план сканирования фотографий iPhone вызвал тревогу в мире технологий. Apple планирует реализовать этот план, чтобы положить конец растущему числу случаев материалов, содержащих сексуальное насилие над детьми (CASM).

Откровенно сексуальный контент неприемлем в обществе как с моральной, так и с юридической точки зрения, но торговля людьми в целях сексуальной эксплуатации сделала его обязательным. предпринять некоторые жесткие шаги для таких компаний, как Apple. Apple будет сканировать фотографии на iPhone и выяснит, причастен ли пользователь к сексуальной эксплуатации/торговле людьми, и эта мера станет шагом вперед к прекращению этого зла в обществе.

Однако новый план Apple пользователи смотрят на него свысока, поскольку пользователи беспокоятся о своей конфиденциальности. Это, несомненно, нарушение конфиденциальности, поскольку данные вашего телефона не будут в безопасности, поскольку ваша информация будет храниться в новой системе сканирования фотографий Apple на iPhone.

Сканирует ли Apple ваши фотографии с iPhone? Вот как оно сканирует?

Технология обнаружения CSAM будет доступна в новых обновлениях iOS 15, которые будут включать в себя три функции для управления CASM.

Все три функции помогут искоренить зло CSAM в обществе, обнаруживая и отмечая на устройстве контент откровенно сексуального характера с участием детей. CSAM распространяется как вирус с миллионами видео и изображений. За это время правоохранительными органами было выявлено около 19 000 жертв.

В Apple заявили, что ее новые функции призваны «помочь защитить детей от хищников, которые используют коммуникационные инструменты для их вербовки и эксплуатации, а также ограничить распространение сексуального насилия над детьми». материалы оскорбительного содержания».

Как будет работать эта функция?

Технология обнаружения CSAM Apple основана на компьютерном алгоритме, который сканирует изображения iCloud, а затем сравнивает их с кодами известных изображения сексуального насилия над детьми. Эти коды хранятся в базе данных организаций по обеспечению безопасности детей, в том числе Национального центра по делам пропавших и эксплуатируемых детей (NCMEC).

Если фотография соответствует базе данных, человек проверит изображение, чтобы убедиться, что оно CSAM. Если фотография будет определена как CSAM, Apple закроет вашу учетную запись и сообщит об этом правоохранительным органам и NCMEC.

Станут ли новые технологии угрозой безопасности?

С добавлением новых функций в обновление Apple, безусловно, позаботится о безопасности пользователей, поскольку это повлияет на сквозное шифрование. Эта функция сканирования может стать лазейкой для правительства, хакеры, сотрудники самой Apple, которые могут получить несанкционированный доступ к вашим данным, могут использовать ее в личных целях. Это может представлять серьезную угрозу конфиденциальности пользователя, поскольку такие конфиденциальные данные могут быть скомпрометированы любым органом власти и могут привести к еще большему нарушению конфиденциальности.

По словам Хиджази. «Я считаю, что сердце Apple находится в правильном месте, и она пытается поступить правильно, но эта мера просто слишком масштабна, потому что она приносит в жертву конфиденциальность всех участников процесса».

Является ли есть ли способ запретить Apple сканировать фотографии?

Согласно Хиджази. «Если вы заботитесь о своей конфиденциальности, вы должны предполагать, что любое устройство iOS уязвимо для обхода сквозного шифрования и полного доступа к фотографиям», — говорит он. «Не существует такого понятия, как конфиденциальность в Интернете или на любом подключенном устройстве, и вы всегда должны исходить из того, что это так, и вести себя соответствующим образом».

Что ж, есть выход, с помощью которого вы можете помешать Apple сканирует ваши фотографии iCloud и может защитить вашу конфиденциальность. Вы можете отключить хранилище iCloud для своих фотографий и обеспечить свою конфиденциальность.

Выполните действия, чтобы отключить фотографии iCloud: -

Вывод:-

CSAM — хороший шаг в предотвращении сексуального насилия над детьми, но да, нельзя игнорировать тот факт, что при этом происходит утечка конфиденциальной информации. Apple могла бы предпринять некоторые другие шаги, которые не нарушают конфиденциальность пользователей и в то же время могли бы предотвратить сексуальное насилие над детьми.

Однако, если человек чист и знает, что в этом нет ничего подозрительного. его данные, то он не должен прислушиваться к каким-либо слухам и поддерживать благородное дело и шаг, предпринятый Apple. Следуйте за нами в социальных сетях – .

Читать: 0

yodax