OpenAI запроваджує моніторинг внутрішніх комунікацій за допомогою ШІ
Технологічний гігант OpenAI, відомий своїми досягненнями у сфері штучного інтелекту, запровадив інноваційний підхід до забезпечення внутрішньої безпеки. Компанія використовує спеціалізовану версію свого потужного інструменту ChatGPT для ідентифікації співробітників, які можуть розголошувати конфіденційну інформацію журналістам. Ця система проактивно аналізує корпоративне листування, шукаючи потенційні збіги з оприлюдненими в медіа даними.
Як працює нова система безпеки
За інформацією видання New York Post, після публікації новин про внутрішні процеси OpenAI, служба безпеки компанії оперативно завантажує текст статті у свою кастомну версію ChatGPT. Цей вдосконалений інструмент має привілейований доступ до корпоративної інформації, зокрема до повідомлень у Slack та електронного листування. Застосунок аналізує контент публікації, визначає, які саме внутрішні документи чи комунікаційні канали могли стати джерелом витоку, і таким чином виявляє коло працівників, які мали доступ до цієї інформації.
OpenAI uses internal version of ChatGPT to identify staffers who leak information: report
byu/EchoOfOppenheimer inOpenAI
Ефективність та контекстуальний аналіз
Джерела, ознайомлені з деталями роботи системи, зазначають, що вона виходить за межі простого текстового пошуку. Інструмент здатен враховувати контекст, що дозволяє виявляти витоки навіть тоді, коли інформація була перефразована або подана з певними змінами. За даними WinBuzzer, така швидкість аналізу може скоротити процес розслідування з тижнів до лічених хвилин. Проте, поки що немає офіційних підтверджень того, що когось було звільнено саме завдяки використанню цього механізму.
Реакція спільноти та порівняння
Новина викликала активні дискусії на платформі Reddit. Користувачі висловлюють своє здивування та занепокоєння. Один з коментаторів, Invalid_Ad4412, іронічно зауважив: “Хіба це не саме той тип неправомірного використання ШІ, про який ми попереджали?”.
Конфіденційність та захист інтелектуальної власності в IT-індустрії
Ця практика стала актуальною на тлі серії витоків інформації щодо важливих внутрішніх проєктів OpenAI, таких як ініціативи під кодовими назвами “Q*” та “Project Strawberry”. Компанія завжди приділяла особливу увагу захисту своїх інтелектуальних надбань, включаючи ваги нейромереж та інші критично важливі технічні розробки, що мають значну комерційну цінність. OpenAI не є унікальною в цій сфері; подібні жорсткі політики конфіденційності дотримуються провідні технологічні компанії Кремнієвої долини, як-от Apple, Tesla та Anthropic. Вони прагнуть мінімізувати ризики розголошення інформації про свої стратегії, розробки та майбутні продукти. Історія свідчить, що в минулому OpenAI та інші передові лабораторії штучного інтелекту вже вдавалися до звільнень дослідників за неналежне поширення внутрішньої інформації.
Думка ІТ-Блогу: Впровадження ШІ для моніторингу співробітників OpenAI ставить амбівалентне питання про баланс між інноваціями, безпекою та довірою всередині компанії. Така практика може стати прецедентом для інших тех-гігантів, посилюючи контроль над внутрішніми даними, але потенційно створюючи більш токсичне робоче середовище.
Подробиці можна знайти на сайті: itc.ua
