З моменту запуску чат-бота ChatGPT кількість електронних листів із фішингом підскочила на 1265%. Такі розрахунки навели аналітики SlashNext, пише Decrypt.
«З наших досліджень ми знаємо, що суб’єкти загроз використовують інструменти на кшталт ChatGPT для написання складних, цілеспрямованих бізнес-листів, що компрометують, та інших фішингових повідомлень», — вказав CEO фірми Патрік Харр.
Фахівець заявив, що потенційні жертви «повинні перейти в наступ» і «боротися зі ШІ за допомогою ШІ».
«Компанії повинні впроваджувати штучний інтелект безпосередньо в програми безпеки для постійного моніторингу всіх каналів обміну повідомленнями для усунення загроз. Ми використовуємо технологію в наборах інструментів для виявлення […] і прогнозування», — пояснив експерт.
Харр з оптимізмом дивиться на здатність штучного інтелекту ловити шахрайських ШІ. Однак фахівець визнає, що буде потрібно щось більше, ніж просто повідомити ChatGPT про кіберзагрози.
«Поверх цього у вас має бути еквівалент приватного застосунку з великою мовною моделлю», — наголосив він.
Нагадаємо, стартап Anthropic, що розробляє великі мовні моделі, презентував «конституції» для відповідального створення ШІ-алгоритмів.
Раніше звіт Gartner показав, що 66% ризик-менеджерів вважають генеративний штучний інтелект загрозою для організацій.
Аналітики виділили три сегменти, які потрібно тримати під контролем з погляду управління корпоративними ризиками: інтелектуальна власність, конфіденційність даних і кібербезпека.