Глава WhatsApp раскритиковал подход Apple к борьбе с детским порно
:format(webp)/aW1hZ2VzL2FydGljbGVzL2NvdmVyLzljMTVlNTY5LTdhOGItNDVmMi1hNTJkLTQzNjA0MWUzMTI1Ni8xNTc4NzgzNjExXzAyMzczMDY5MTk2M18xOTIweDBfODBfMF8wX2JkYThkOWFjNWNmYThmMTFhMmEwN2EzYmVmNDQ4ZjEyLmpwZw.webp?w=1920)
Решение компании Apple о сканировании фотографий пользователей iPhone для поиска детского порно и выявления преступлений против несовершеннолетних ставит под вопрос принцип конфиденциальности и дает простор для злоупотреблений. WhatsApp не пойдет по такому пути. Об этом на своей странице в Twitter написал глава мессенджера Уилл Кэткарт.
Он подчеркнул, что WhatsApp использует другой способ. Пользователи сами могут сообщать о противоправном контенте, который им прислали. В прошлом году в Национальный центр пропавших и эксплуатируемых детей (некоммерческая организация США — прим. ред.) поступило более 400 тысяч сообщений.
«Я прочитал информацию, которую Apple вчера опубликовала, и я обеспокоен. Я считаю, что это неправильный подход и препятствие для частной жизни людей по всему миру. Люди спрашивают, будем ли мы внедрять эту систему для WhatsApp. Ответ — нет», — говорится в сообщении Кэткарта.
По его словам, ловить и сажать тех, кто насилует и похищает детей нужно. Но решение Apple начать сканировать личные фотографии пользователей открывает масштабный простор для злоупотреблений. В том числе со стороны государства.
«Будет ли эта система использоваться в Китае? Какой контент они сочтут там незаконным и как мы об этом узнаем? Будет ли Apple принимать заявки от правительств других стран по поиску контента, который там признан незаконным?» — поинтересовался глава WhatsApp.
Компания Apple объявила, что новое программное обеспечение iPhone откроет доступ к личным фотографиям владельца. Нейросети проверят снимки на предмет детского порно. В случае обнаружения подобных картинок компания передаст запрос в полицию. Пока эта технология будет использоваться только в США.