Mедия за бизнес, лидерство, технологии и иновации, вдъхновени от хората, базирани на науката и реализирани в полза на човечеството – бъдете окрилени от знание за прогрес!

Криптографи определиха ​​функцията NeuralHash на Apple като „опасна“

Група известни криптографи публикуваха проучване, в което оределят новата функция на Apple за проследяване на злоупотреба с деца (CSAM) като „опасна технология“.

Те са уверени, че сканирането на цифровите хранилища на хора за детска порнография и друго незаконно съдържание не може да се осъществи по начин, който да изпълнява едновременно две противоречиви задачи – да се гарантира поверителността на потребителите и да се помогне на правоприлагащите органи при залавянето на престъпници.

Изследователите по сигурността смятат, че плановете на Apple да предотврати CSAM, само разширяват „правомощията на държавата да шпионира“.

По същество, това е много опасна технология. Дори ако първоначално ще се използва за сканиране на CSAM материали, рано или късно ще се появи желание да се разшири обхватът на тази функция.

Необходимо е да се спре появата на тази технология още на етапа на създаване – в противен случай ще бъде твърде късно. Ще ни бъде трудно да намерим начин да противодействаме и ще загубим контрол над тази система,

се казва в доклада.

Авторите на доклада смятат, че методът на сканиране „сам по себе си представлява сериозен риск за сигурността и поверителността на цялото общество“. А помощта, която може да се окаже на правоохранителните органи „не е толкова голяма“. Експертите отбелязват, че алгоритъмът за сканиране може да бъде заобиколен и дори използван в ущърб на някого.

Преди известно време, един от потребителите в Reddit откри в iOS 14.3 официалната част от кода на алгоритъма, който ще се използва за сканиране на снимки и намиране на изображения на насилие над деца (CSAM).

Потребителят обърна кода, което му позволи да намери начин да измами алгоритъма и дори да злоупотреби с него. В последствие, от Apple заявиха, че във финалната версия на функцията, това няма да е възможно, но съмненията остават.

В този момент, Apple все още не са обявили кога възнамеряват да пуснат своите функции за защита на децата, след като ги забави поради опасенията на експерти по сигурността. Докладът на изследователите се състои от 46 страници, а в неговото създаване са участвали 14 експерти по сигурност.

Източник

Total
0
Share