1

Романтичні чат-боти з ШІ порушують вашу приватність

Експерти попередили користувачів романтичних чат-ботів для «відносин» на базі штучного інтелекту, що їхні дані та конфіденційність знаходяться під загрозою. Компанія Mozilla дослідила 11 різних додатків, зокрема, Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate і CrushOn.AI. Кожен з них отримав позначку «Privacy Not Included», що робить ці чат-боти однією з найгірших категорій продуктів за оцінкою Mozilla.

 

Отже, компанія обрала День святого Валентина, щоб оприлюднити нове дослідження чат-ботів у рамках серії звітів *Privacy Not Included.

 

З моменту появи генеративного ШІ (GenAI) у романтичних чат-ботах або чат-ботах для стосунків відбувся справжній бум, що дозволило їх рекламувати як такі, що надають розраду самотнім серцям.

 

Однак насправді вони навмисно або через недбалість ігнорують найкращі практики конфіденційності та безпеки, стверджує Mozilla.

 

«Якщо говорити відверто, то штучний інтелект вам не друг, – сказав дослідник Mozilla Міша Риков у своїй заяві для преси. Хоча вони продаються як щось, що покращить ваше психічне здоров’я та благополуччя, вони спеціалізуються на створенні залежності, самотності та токсичності, і все це при тому, що вони витягують з вас якомога більше даних».

 

Загалом чат-боти завантажили понад 100 мільйонів користувачів із Google Play, але більшість із них має низку проблем із конфіденційністю та безпекою, зокрема:

 

  • Відсутня публічна інформація про те, як вирішуються проблеми з вразливостями (73%)
  • Відсутня чітка інформація про шифрування та чи його застосовують взагалі (64%)
  • Дозволяють використовувати слабкі паролі, включно з «11111» (45%)
  • Продають дані користувачів, діляться ними для таргетованої реклами або не надають достатньо інформації у своїй політиці конфіденційності, щоб підтвердити, що вони цього не роблять (90%)
  • Забороняють видаляти персональні дані (54%)

 

«Сьогодні ми на Дикому Заході чат-ботів для стосунків зі штучним інтелектом. Їхній розвиток стрімко зростає, і кількість особистої інформації, яку вони потребують від вас, щоб будувати романтичні стосунки, дружбу та сексуальну взаємодію, величезна. Отже, ми мало розуміємо, як працюють ці моделі взаємовідносин на основі ШІ», — попередила директор Privacy Not Included Джен Калтрідер.

 

«Одна з найжахливіших речей у чат-ботах на основі ШІ, — це можливість маніпулювати їхніми користувачами. Що заважає зловмисникам створювати чат-ботів для знайомства зі спорідненими душами, а потім використовувати ці стосунки, щоб змушувати цих людей робити жахливі речі, нав’язувати їм якісь страшні ідеї або завдавати шкоди собі чи іншим? Ось чому нам відчайдушно потрібно більше прозорості та контролю з боку користувачів у цих додатках на основі ШІ».

 

ДЕЯКІ НЕ ДУЖЕ ВЕСЕЛІ ФАКТИ ПРО ЦИХ БОТІВ:

 

  • Сотні і тисячі трекерів!

Mozilla порахувала трекери в цих додатках – маленькі шматочки коду, які збирають дані та передають їх іншим компаніям для реклами та інших цілей. Отже, додатки використовували в середньому 2 663 трекери на хвилину, хоча ця цифра була збільшена завдяки Romantic AI, який застосовува 24 354 трекери лише за одну хвилину використання сервісу.

  • Усе, що ви скажете своєму коханому ШІ, може і буде використано проти вас

З партнерами ШІ не існує такого поняття, коли чоловік або дружина не повинні свідчити проти у суді один проти одного. Більшість компаній стверджують, що вони можуть надати вашу інформацію уряду чи правоохоронним органам без рішення суду.

  • NSFL (not safe for life) контент в один клік

Звичайно, ми очікували знайти небезпечний контент під час дослідження романтичних чат-ботів! Ми тут не для того, щоб робити зауваження, хіба що щодо конфіденційності. Чого ми не очікували, то це такої великої кількості чутливого контенту — наприклад, теми насильства чи жорстокого поводження з неповнолітніми — в описах персонажів чат-ботів. CrushOn.AI, Chai та Talkie Soulful AI отримали від нас попередження про зміст.

  • *Доброту — не включено!

Якщо у вашого ШІ-компаньйона нема нічого приємного вам сказати, це не причина дати вам спокій. Це стосується всіх романтичних чат-ботів зі штучним інтелектом, оскільки ми не знайшли жодних гарантій чемного ставлення до особистості. В свою чергу Replika AI, iGirl: AI Girlfriend, Anima: Friend & Companion і Anima: My Virtual Boyfriend спеціально розмістили на своїх веб-сайтах попередження про те, що чат-боти можуть образити, вести спілкування у небезпечній або ворожій манері.

 

ЩО МОЖНА З ЦИМ ЗРОБИТИ?

 

Ми рекомендуємо вам подивитись огляди, щоб зрозуміти свій рівень ризику та вибрати чат-бота, який, на вашу думку, того вартий. При цьому жоден романтичний чат-бот на основі ШІ, серед тих, що ми дослідили, не отримав нашого схвалення, а навпаки всі вони мають попередження: *Конфіденційність не включена.

 

Якщо ж ви все-таки вирішите зануритися у світ спілкування з ШІ, ось що ми пропонуємо вам зробити (і не робити), щоб почуватись трохи безпечнішими:

Найважливіше: НЕ КАЖІТЬ своєму ШІ-другу нічого такого, чого б ви не хотіли, щоб знав ваш двоюрідний брат або колеги.

 

Також:

ЩО ВАРТО РОБИТИ

  • Дотримуйтеся правил кібергігієни, використовуючи надійний пароль і постійно оновлюйте додаток.
  • Видаліть свої особисті дані або попросіть компанію видалити їх, коли ви закінчите користуватися послугою.
  • Відмовтеся від використання вмісту ваших особистих чатів для навчання моделей ШІ, якщо це можливо.
  • Обмежте доступ до свого місцезнаходження, фотографій, камери та мікрофона в налаштуваннях пристрою.

 

Що ще можна зробити?

 

Мріяти про вищі стандарти конфіденційності та більш етичний ШІ!

 

Ви не повинні платити за нові круті технології своєю безпекою чи конфіденційністю. Настав час заявити про деякі права та свободи на небезпечному дикому заході на просторах Інтернету. З вашою допомогою ми можемо підняти планку конфіденційності та етики ШІ в усьому світі.

 

Джерело: Mozilla

Related Posts

card__image

Пріоритизація кібербезпеки збільшує прибутки

Нове дослідження від Diligent і Bitsight показало, що пріоритизація кібербезпеки в компаніях та створення потужних команд з аудиту або управління ризиками напряму впливає на покращення фінансових показників підприємства.   Підвищення рівня кібербезпеки та фінансовий успіх тісно пов’язані в тих компаніях, які впроваджують надійні заходи безпеки. Саме такі компанії забезпечують на цілих 372% більше прибутку акціонерам […]

card__image

У 2023 році кількість фішингових атак зросла на 40%

У 2023 році було заблоковано понад 709 мільйонів фішингових атак, що на 40% більше, ніж у 2022 році, згідно щорічного аналізу Касперського. Месенджери, платформи зі Штучним Інтелектом, соцмережі та криптобіржі були одними з шляхів, які найчастіше використовували зловмисники для обману користувачів.   Щорічний аналіз загроз спаму та фішингу виявив стійку тенденцію у 2022 році: помітне […]

card__image

Атаки програм-вимагачів різко зростають через недостатній рівень комплаєнсу – Thales Group

Thales Group оприлюднила the 2024 Thales Data Threat Report, щорічний звіт про останні загрози безпеки даних і нові тенденції на основі опитування майже 3000 спеціалістів з ІТ та безпеки у 18 країнах у 37 галузях. Цьогорічний звіт показує, що 93% ІТ-фахівців вважають, що загрози зростають за обсягом або рівнем небезпеки, що значно більше порівняно з […]