OpenAI, здається, щодня потрапляє в заголовки новин, і цього разу це пов’язано з подвійною порцією проблем з безпекою. Перша проблема стосується додатка ChatGPT для Mac, в той час як друга натякає на більш широке занепокоєння щодо того, як компанія справляється зі своєю кібербезпекою.
Раніше цього тижня інженер і розробник Swift Педро Хосе Перейра Віейто дослідив додаток ChatGPT для Mac і виявив, що він зберігає розмови користувачів локально у вигляді простого тексту, а не шифрує їх. Додаток доступний лише на вебсайті OpenAI, і оскільки його немає в App Store, він не повинен відповідати вимогам “пісочниці” Apple. Про роботу Віейто писало видання The Verge, і після того, як експлойт привернув увагу, OpenAI випустила оновлення, яке додало шифрування до локально збережених чатів.
Для не-розробників пісочниця – це практика безпеки, яка запобігає поширенню потенційних вразливостей і збоїв з однієї програми на інші на комп’ютері. А для тих, хто не є експертом з безпеки, зберігання локальних файлів у вигляді простого тексту означає, що потенційно конфіденційні дані можуть бути легко переглянуті іншими програмами або шкідливим програмним забезпеченням.
Друга проблема виникла у 2023 році, і її наслідки продовжують відчуватися і сьогодні. Минулої весни хакер зміг отримати інформацію про OpenAI після незаконного доступу до внутрішніх систем обміну повідомленнями компанії. Газета The New York Times повідомила, що технічний керівник програми OpenAI Леопольд Ашенбреннер висловив занепокоєння з приводу безпеки перед радою директорів компанії, стверджуючи, що злом означає внутрішні вразливості, якими можуть скористатися іноземні супротивники.
Тепер Ашенбреннер каже, що його звільнили за розголошення інформації про OpenAI й за те, що він висловив занепокоєння щодо безпеки компанії. Представник OpenAI повідомив The Times, що “хоча ми поділяємо його прагнення до створення безпечного штучного інтелекту, ми не згодні з багатьма заявами, які він зробив про нашу роботу”, і додав, що його звільнення не було результатом викриття.
Вразливості додатків – це те, з чим стикалася кожна технологічна компанія. Порушення з боку хакерів також є гнітюче поширеним явищем, як і суперечливі стосунки між викривачами та їхніми колишніми роботодавцями. Однак, враховуючи те, наскільки широко ChatGPT був впроваджений у сервіси великих гравців, і наскільки хаотичним був нагляд за компанією, її практикою та публічною репутацією, ці останні проблеми починають малювати більш тривожну картину щодо того, чи може OpenAI керувати своїми даними.
Джерело Engadget