НЕЙРОСЕТИ

Критические уязвимости в плагине ChatGPT раскрывают конфиденциальные данные

Обновлено 07 января 2025 - вчера. Darkreading.com.

Double Horizontal frame

Три уязвимости в функциях расширения, используемых ChatGPT, открывают возможность несанкционированного доступа к учетным записям и сервисам пользователей, включая важные репозитории на таких платформах, как GitHub, с помощью "нулевого клика".

Плагины ChatGPT и пользовательские версии ChatGPT, опубликованные разработчиками, расширяют возможности модели ИИ, позволяя взаимодействовать с внешними сервисами, предоставляя популярному генеративному ИИ-чатботу OpenAI доступ и разрешения на выполнение задач на различных сторонних сайтах, включая GitHub и Google Drive.

Исследователи Salt Labs обнаружили три критические уязвимости в ChatGPT, первая из которых возникает во время установки новых плагинов, когда ChatGPT перенаправляет пользователей на сайты плагинов для одобрения кода. Используя эту уязвимость, злоумышленники могут обманом заставить пользователей одобрить вредоносный код, что приведет к автоматической установке несанкционированных плагинов и возможной последующей компрометации учетной записи.

Во-вторых, в PluginLab, фреймворке для разработки плагинов, отсутствует надлежащая аутентификация пользователей, что позволяет злоумышленникам выдавать себя за пользователей и осуществлять захват аккаунтов, как это было замечено в плагине "AskTheCode", соединяющем ChatGPT с GitHub.

Наконец, исследователи Salt обнаружили, что некоторые плагины подвержены манипуляциям с перенаправлением OAuth, что позволяет злоумышленникам вставлять вредоносные URL и красть учетные данные пользователей, способствуя дальнейшему захвату аккаунтов.

В отчете отмечается, что проблемы уже устранены, и нет никаких доказательств того, что уязвимости были использованы, поэтому пользователям следует как можно скорее обновить свои приложения.

Проблемы безопасности GenAI ставят под угрозу обширную экосистему

Янив Балмас, вице-президент по исследованиям компании Salt Security, говорит, что проблемы, обнаруженные исследовательской группой, могут подвергнуть риску сотни тысяч пользователей и организаций.

"Лидеры по безопасности в любой организации должны лучше понимать риски, поэтому им следует проанализировать, какие плагины и GPT использует их компания и какие сторонние учетные записи подвергаются риску через эти плагины и GPT", - говорит он. "В качестве отправной точки мы бы предложили провести обзор безопасности их кода".

Разработчикам плагинов и GPT Балмас рекомендует лучше понимать внутреннее устройство экосистемы GenAI, меры безопасности, как их использовать и как ими злоупотреблять. В частности, речь идет о том, какие данные отправляются в GenAI и какие разрешения даются платформе GenAI или подключенным сторонним плагинам - например, разрешение на Google Drive или GitHub.

Балмас отмечает, что команда исследователей Salt проверила лишь небольшой процент этой экосистемы, и говорит, что результаты исследования указывают на более серьезный риск, связанный с другими платформами GenAI, а также со многими существующими и будущими плагинами GenAI.

Балмас также говорит, что OpenAI следует уделять больше внимания безопасности в своей документации для разработчиков, что поможет снизить риски.

Риски безопасности плагинов GenAI, скорее всего, возрастут

Сара Джонс, аналитик по исследованию киберугроз из компании Critical Start, согласна с тем, что результаты исследования Salt Lab свидетельствуют о более широком риске безопасности, связанном с плагинами GenAI.

"По мере того как GenAI все больше интегрируется с рабочими процессами, уязвимости в плагинах могут предоставить злоумышленникам доступ к конфиденциальным данным или функциональным возможностям различных платформ", - говорит она.

Это подчеркивает необходимость надежных стандартов безопасности и регулярных проверок как для платформ GenAI, так и для их подключаемых экосистем, поскольку хакеры начинают находить недостатки в этих платформах.

Даррен Гуччионе, генеральный директор и соучредитель Keeper Security, говорит, что эти уязвимости служат "суровым напоминанием" о рисках безопасности, присущих сторонним приложениям, и должны побудить организации усилить свою защиту.

"Поскольку организации спешат использовать ИИ для получения конкурентных преимуществ и повышения операционной эффективности, необходимость быстрого внедрения этих решений не должна превалировать над оценкой безопасности и обучением сотрудников", - говорит он.

Распространение приложений с поддержкой искусственного интеллекта также привело к возникновению проблем в области безопасности цепочки поставок программного обеспечения, требуя от организаций адаптировать свои средства контроля безопасности и политики управления данными.

Он отмечает, что сотрудники все чаще вводят в инструменты ИИ конфиденциальные данные, включая интеллектуальную собственность, финансовые данные, бизнес-стратегии и многое другое, и несанкционированный доступ злоумышленников может нанести ущерб организации.

"Атака с захватом учетной записи, ставящая под угрозу учетную запись GitHub сотрудника или другие важные учетные записи, может иметь не менее пагубные последствия", - предупреждает он.

Эта статья является экземпляром Турбо-текста. Такие тексты отлично продвигают сайты в ТОП органического поиска Яндекс и Google. Здесь я пишу об этом более подробно.

Nikita Interactive, founder

Искренне Ваш,

Nikita Interactive

Это реальная история!

Раздел с Турбо-текстами привлек 18 090 пользователей за 9 месяцев.
На новом сайте. Без ссылок.

Измеримые результаты и устойчивый успех.