OpenAI розкриває план безпеки: захищаємо дітей від онлайн-загроз

OpenAI розкриває план безпеки: захищаємо дітей від онлайн-загроз 1

З огляду на зростаюче занепокоєння щодо безпеки дітей в онлайн-просторі, компанія OpenAI представила план дій для посилення захисту дітей у США на тлі бурхливого розвитку штучного інтелекту. Цей документ, відомий як “План безпеки дітей” (Child Safety Blueprint), опублікований у вівторок, покликаний прискорити виявлення, покращити звітування та оптимізувати розслідування випадків експлуатації дітей за допомогою ШІ.

Виклики нового цифрового світу

Основна мета “Плану безпеки дітей” — протидія тривожному зростанню випадків сексуальної експлуатації дітей, пов’язаної з досягненнями у сфері штучного інтелекту. За даними Internet Watch Foundation (IWF), лише за перше півріччя 2025 року було виявлено понад 8 000 звітів про згенерований ШІ контент із сексуальним насильством над дітьми, що на 14% більше порівняно з попереднім роком. Зловмисники використовують інструменти ШІ для створення фейкових відвертих зображень дітей з метою фінансового шантажу (сексторшн), а також для генерації переконливих повідомлень, спрямованих на залучення дітей до небезпечних стосунків (грумінг).

Реакція на інциденти та тиск суспільства

План OpenAI також з’явився на тлі посиленої уваги з боку політиків, освітян та правозахисних організацій, що займаються безпекою дітей. Особливе занепокоєння викликають трагічні випадки, коли молоді люди вчиняли самогубства після, як стверджується, взаємодії з чат-ботами зі штучним інтелектом.

Минулого листопада Центр права жертв соціальних мереж (Social Media Victims Law Center) та Проект права технологічної справедливості (Tech Justice Law Project) подали сім позовів до судів штату Каліфорнія, стверджуючи, що OpenAI випустила GPT-4o до того, як він був належним чином підготовлений. Позови заявляють, що психологічно маніпулятивна природа продукту сприяла смертям через самогубство та підтримувала суїцидальні наміри. Позивачі посилаються на чотирьох осіб, які померли від самогубства, та трьох інших, які пережили серйозні, небезпечні для життя марення після тривалої взаємодії з чат-ботом.

Стратегія OpenAI: три ключові напрямки

Цей план розроблявся у співпраці з Національним центром зниклих безвісти та експлуатованих дітей (NCMEC) та Альянсом генеральних прокурорів (Attorney General Alliance), а також за участю генерального прокурора Північної Кароліни Джеффа Джексона та генерального прокурора штату Юта Дерека Брауна.

Компанія зазначає, що план зосереджений на трьох основних аспектах: оновлення законодавства для включення матеріалів, згенерованих ШІ, які стосуються зловживань; вдосконалення механізмів звітування для правоохоронних органів; та інтеграція превентивних заходів безпеки безпосередньо в системи ШІ. Таким чином, OpenAI прагне не лише раніше виявляти потенційні загрози, а й забезпечувати оперативне надходження дієвої інформації до слідчих.

Попередні кроки та глобальний підхід

Новий план OpenAI щодо безпеки дітей базується на попередніх ініціативах, включаючи оновлені правила взаємодії з користувачами до 18 років. Ці правила забороняють створення неприйнятного контенту, заохочення до самопошкодження та надання порад, які допомогли б молодим людям приховувати небезпечну поведінку від опікунів. Нещодавно компанія також представила план безпеки для підлітків в Індії.

Думка ІТ-Блогу: Представлений OpenAI “План безпеки дітей” є вкрай важливим кроком у відповідь на реальні загрози, що виникають через розвиток ШІ. Це свідчить про поступове усвідомлення технологічними гігантами своєї відповідальності та необхідності проактивних заходів для захисту найвразливіших категорій користувачів.

Інформація підготовлена на основі матеріалів: techcrunch.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *