Корпорація Microsoft оголосила про партнерство з організацією StopNCII для боротьби з діпфейк-порно в пошуковій системі Bing.
Інструменти StopNCII дають змогу жертвам діпфейків створювати цифровий відбиток відвертих зображень на своїх пристроях. Потім партнери організації використовують цей хеш для видалення контенту зі своїх платформ.
З StopNCII вже співпрацюють Facebook, Instagram, Threads, TikTok, Snapchat, Reddit, Pornhub і OnlyFans.
Microsoft повідомила про вжиті заходи щодо 268 899 відвертих зображень у рамках пілотного співробітництва з базою даних організації. Раніше корпорація застосовувала інструмент прямого звітування, але цих зусиль виявилося недостатньо.
«Ми чули побоювання жертв, експертів та інших зацікавлених сторін щодо того, що одних лише повідомлень недостатньо з погляду впливу та адекватного розв’язання проблеми, пов’язаної з доступністю зображення в пошуку», — йдеться в блозі Microsoft.
У липні Google активізував боротьбу з діпфейк-порно. Пошуковик виключатиме з результатів такий контент і знижуватиме рейтинг сайтів, які отримують багато скарг. Якщо хтось видалить зображення з пошуку, системи Google автоматично просканують і приберуть дублікати.
Раніше пошуковий гігант зіткнувся з критикою від колишніх працівників і жертв через те, що не співпрацював зі StopNCII, пише Wired. За інформацією ЗМІ, з 2020 року користувачі Google у Південній Кореї повідомили про наявність 170 000 посилань на небажаний сексуальний контент у пошукових запитах і на YouTube.
Проблема поширення діпфейк-порно загострилася через розвиток штучного інтелекту, який дає змогу генерувати подібний контент. Інструменти StopNCII працюють тільки для осіб, старших за 18 років, тоді як технологія застосовується і серед неповнолітніх.
У вересні ЗМІ повідомили про способи використання кастомних версій ChatGPT для створення порнографічного контенту.
У лютому Віталік Бутерін склав інструкцію з виявлення діпфейків.
Нагадаємо, у серпні офіс міського прокурора Сан-Франциско Девіда Чіу подав позов проти власників 16 найбільших у світі вебсайтів, що дають змогу «роздягати» жінок і дівчаток на фотографіях за допомогою ШІ без їхньої згоди.