1

Как искусственный интеллект помог киберпреступникам

Вибачте цей текст доступний тільки на “Російська”.

Необычный случай с участием искусственного интеллекта произошел в Британии. Киберпреступники использовали программное обеспечение на основе AI, чтобы подделать голос руководителя, и попросили перевести $243 тыс. Это сработало. По словам генерального директора пострадавшей британской энергетической компании, он действительно подумал, что разговаривает по телефону со своим боссом – главным исполнительным директором немецкой материнской компании. Звонивший попросил перечислить средства венгерскому поставщику в течение часа, так как запрос был срочным. Мошенникам удалось максимально точно воссоздать особенности речи с помощью искусственного интеллекта. Британский гендиректор даже узнал по телефону легкий немецкий акцент своего босса и тембр его голоса.

Кто бы ни стоял за этим инцидентом, похоже своим примером он задал вектор для будущих атак и показал в каком направлении развивается социальная инженерия. Для предотвращения подобных человеческих ошибок сотрудникам рекомендуют проходить обучение по вопросам безопасности и быть начеку.

Источник: The Wall Street Journal

Related Posts

card__image

У 2023 році кількість фішингових атак зросла на 40%

У 2023 році було заблоковано понад 709 мільйонів фішингових атак, що на 40% більше, ніж у 2022 році, згідно щорічного аналізу Касперського. Месенджери, платформи зі Штучним Інтелектом, соцмережі та криптобіржі були одними з шляхів, які найчастіше використовували зловмисники для обману користувачів.   Щорічний аналіз загроз спаму та фішингу виявив стійку тенденцію у 2022 році: помітне […]

card__image

Атаки програм-вимагачів різко зростають через недостатній рівень комплаєнсу – Thales Group

Thales Group оприлюднила the 2024 Thales Data Threat Report, щорічний звіт про останні загрози безпеки даних і нові тенденції на основі опитування майже 3000 спеціалістів з ІТ та безпеки у 18 країнах у 37 галузях. Цьогорічний звіт показує, що 93% ІТ-фахівців вважають, що загрози зростають за обсягом або рівнем небезпеки, що значно більше порівняно з […]

card__image

Романтичні чат-боти з ШІ порушують вашу приватність

Експерти попередили користувачів романтичних чат-ботів для «відносин» на базі штучного інтелекту, що їхні дані та конфіденційність знаходяться під загрозою. Компанія Mozilla дослідила 11 різних додатків, зокрема, Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate і CrushOn.AI. Кожен з них отримав позначку «Privacy Not Included», що робить ці чат-боти однією з найгірших категорій продуктів […]

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *