1

Как искусственный интеллект помог киберпреступникам

Необычный случай с участием искусственного интеллекта произошел в Британии. Киберпреступники использовали программное обеспечение на основе AI, чтобы подделать голос руководителя, и попросили перевести $243 тыс. Это сработало. По словам генерального директора пострадавшей британской энергетической компании, он действительно подумал, что разговаривает по телефону со своим боссом — главным исполнительным директором немецкой материнской компании. Звонивший попросил перечислить средства венгерскому поставщику в течение часа, так как запрос был срочным. Мошенникам удалось максимально точно воссоздать особенности речи с помощью искусственного интеллекта. Британский гендиректор даже узнал по телефону легкий немецкий акцент своего босса и тембр его голоса.

Кто бы ни стоял за этим инцидентом, похоже своим примером он задал вектор для будущих атак и показал в каком направлении развивается социальная инженерия. Для предотвращения подобных человеческих ошибок сотрудникам рекомендуют проходить обучение по вопросам безопасности и быть начеку.

Источник: The Wall Street Journal

Related Posts

card__image

Ransomware surges as compliance stumbles – Thales Group

Извините, этот текст доступен только на “Английский”. Thales announced the release of the 2024 Thales Data Threat Report, its annual report on the latest data security threats, trends, and emerging topics based on a survey of nearly 3000 IT and security professionals in 18 countries across 37 industries. This year’s report found that 93% of […]

card__image

The Growing Threat of AI Children Impersonating Real Kids — How To Resist It, Vitaliy Yakushev

Извините, этот текст доступен только на “Английский” и “Украинский”. The landscape of technology is ever-evolving, and each advancement poses new opportunities and threats. One such challenge that has recently come into focus is the growing phenomenon of Artificial Intelligence (AI) children impersonating real kids.   According to a study by Visa Stay Secure, 7 out […]

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *