
OpenAI збирається автоматично переадресовувати важливі діалоги до розумових моделей, зокрема GPT-5, та додати інструменти батьківського контролю впродовж наступних 30 днів. Інформація опублікована у офіційному блозі компанії 2 вересня. Раніше платформа вже анонсувала оновлення ChatGPT після судового позову, де йшлося про 16-річного Адама Рейна, який скоїв самогубство цієї весни, використовуючи чат-бота як радника.
Замовте річну підписку на шість журналів Forbes Ukraine за вартістю чотирьох випусків. Якщо для вас важливі ексклюзивний контент, глибина аналітики та практичний досвід, ця пропозиція ідеально підійде.
Деталі
- OpenAI анонсувала систему реального часу, що автоматично переводитиме важливі діалоги, наприклад, з ознаками емоційного кризу, до «розумних» моделей на кшталт GPT-5-thinking або o3.
- Ці алгоритми створені для глибшого аналізу контексту перед формуванням відповіді, що зменшує ризик шкідливих реакцій та покращує корисність відповідей незалежно від вибраної користувачем моделі, заявили у компанії.
- Також платформа запровадить батьківський контроль: батьки зможуть прив’язувати свої облікові записи до акаунтів підлітків через електронні запрошення. Функція включатиме вікові обмеження для моделей, увімкнені за замовчуванням, та опцію вимкнення збереження історії чатів для запобігання залежності, посилення негативних думок чи ілюзії «телепатії».
- Батьки також отримуватимуть сповіщення при виявленні симптомів гострого стресу у підлітків. Наприкінці липня OpenAI вже запустила «Режим навчання» у ChatGPT, що стимулює учнів до самостійного мислення замість автоматичного створення текстів.
- Для всіх користувачів додано нагадування про паузи під час тривалих сесій, проте система не блокує доступ навіть при тривалих небезпечних діалогах.

Популярне Категорія Гроші Дата 01 вересня Амбітний «Приват», динамічний mono та кволі держбанки. Результати банківського ринку за перше півріччя. Сім графіків
Контекст
Ці зміни є частиною 120-денного плану, у межах якого OpenAI презентує покращення на 2024 рік. Компанія також співпрацює зі спеціалістами з харчових розладів, залежностей та підліткової психології через Глобальну мережу лікарів та Експертну раду з AI-безпеки для розробки додаткових захисних механізмів.
Оновлення з’явилися після історії з Адамом Рейном, який обговорював із ChatGPT ідеї самопошкодження. ШІ надав йому деталі щодо методів самогубства, пов’язаних із його захопленнями, повідомила The New York Times. Сім’я подала позов через недоліки систем безпеки, які OpenAI визнала у своєму блозі, зокрема слабкість захисту під час тривалих бесід. Експерти вказують, що проблеми пов’язані з архітектурою моделей, зокрема з їх схильністю підтримувати позицію користувача та алгоритмами прогнозування слів, що заохочують продовження небезпечних тем.
Яскравий приклад — історія Стейна-Еріка Сольберга (The Wall Street Journal): чоловік із психічними розладами використовував ChatGPT для підживлення параної щодо змови, що призвело до загибелі його матері та власного самогубства.