Домой Технология Эксперт предупредил о возможности незаконного применения нейросетей

Эксперт предупредил о возможности незаконного применения нейросетей

199
0

Эксперт предупредил о возможности незаконного применения нейросетей

Злоумышленники могут использовать нейросети, которыми пользуются компании, для кражи персональных и корпоративных данных, а также взлома систем безопасности, поэтому им необходимо проводить аудит информационной безопасности, рассказал РИА Новости директор по искусственному интеллекту и цифровым продуктам «Билайна» Константин Романов.

«Нейросеть потенциально может использоваться для кражи персональных и корпоративных данных. Она может обрабатывать огромные объемы данных и извлекать из них информацию, в том числе и конфиденциальную. Существует возможность использования нейросетей для взлома систем безопасности и доступа к защищенным данным», — заявил он.

По словам эксперта, утечка данных может иметь серьезные последствия — например, кражу личных средств и идентификационных данных, шпионаж и другие незаконные действия. Причем данные могут попадать не только к мошенникам, но и к иностранным спецслужбам. Кроме того, утечка может привести к утрате доверия к компании со стороны клиентов.

«Компаниям, внедряющим нейросети в свои процессы, необходимо проводить аудит информационной безопасности, чтобы убедиться, что слив данных невозможен или митигирован», — подчеркнул Романов.

Он также напомнил о случаях, когда сервисы, использующие нейросети, собирали данные пользователей, чем вызывали их беспокойство. Один из них — скандал вокруг приложения для обработки фотографий FaceApp в 2019 году. Пользователи загружали в программу фотографии, они обрабатывались и сохранялись на серверах компании вместе с различными данными, включая местоположение устройства, IP-адрес, идентификатор устройства и другую персональную информацию.

После этого, по словам эксперта, пользователи были обеспокоены тем, что хранимые данные могут без их ведома быть использованы не только в рекламных целях, но и для слежки.

Другой пример — Google Photos, сервис для хранения и обработки фотографий, который использует нейросети для автоматической обработки данных и создания альбомов. «В 2019 году Google признался, что несколько тысяч пользователей могли быть затронуты ошибкой в программном обеспечении, которая привела к тому, что некоторые фотографии были неправильно отправлены на серверы компании. В результате этого возникла обеспокоенность, что эти фотографии могут быть использованы для целей маркетинга или даже для целей шпионажа», — резюмировал Романов.