НЕЙРОСЕТИ

Как плагины ChatGPT рисковали пользовательскими данными?

Обновлено 24 января 2025 - 2 месяца назад. Hackread.com.

Double Horizontal frame

Критические недостатки безопасности, обнаруженные в плагинах ChatGPT, подвергают пользователей опасности утечки данных. Злоумышленники могут украсть данные для входа в систему и получить доступ к конфиденциальным данным на сторонних сайтах. Обновите свои плагины сейчас и используйте расширения только из надежных источников, чтобы оставаться в безопасности от киберугроз, управляемых искусственным интеллектом.

Компания Salt Security, лидер в области защиты интерфейсов прикладного программирования (API), обнаружила критические уязвимости в популярных плагинах для ИИ-чатбота ChatGPT от OpenAI . Эти уязвимости могут позволить злоумышленникам похитить конфиденциальные данные пользователей и получить несанкционированный доступ к аккаунтам на сторонних сайтах или извлечь данные из Google Drive.

Это означает, что функциональность плагинов ChatGPT, теперь известных как GPT, может стать вектором атаки, позволяя уязвимостям получать доступ к учетным записям сторонних пользователей, включая репозитории GitHub, и позволяя злоумышленникам получить контроль над учетной записью организации на сторонних сайтах и доступ к конфиденциальным данным.

К вашему сведению, плагины ChatGPT (доступные исключительно пользователям модели GPT-4 и требующие подписки ChatGPT Plus для использования) предназначены для расширения возможностей чатбота, позволяя ему взаимодействовать с внешними сервисами и быть применимым в различных доменах. Однако при использовании плагинов ChatGPT организации могут непреднамеренно разрешить им отправлять конфиденциальные данные на сторонние веб-сайты и получать доступ к частным внешним аккаунтам.

Три уязвимости

Согласно исследованию Salt Labs, компания обнаружила три уязвимости в плагинах ChatGPT.

Первая уязвимость

Первый - в самом ChatGPT, где пользователи направляются на сайт плагина, чтобы получить код для одобрения. Злоумышленники могут использовать эту функцию для доставки пользователям кода одобрения с вредоносным плагином, позволяющим им установить свои учетные данные на аккаунт жертвы. Любое сообщение, написанное в ChatGPT, может быть передано плагину, после чего злоумышленник может получить доступ к служебной информации.

Вторая уязвимость

Вторая уязвимость была обнаружена в PluginLab, фреймворке, используемом для разработки плагинов ChatGPT. Специалисты Salt Labs обнаружили, что PluginLab не применяет надлежащих мер безопасности в процессе установки, что позволяет злоумышленникам устанавливать вредоносные плагины без ведома пользователей.

Поскольку PluginLab не проверяет подлинность учетных записей пользователей, злоумышленники могут вставить другой идентификатор пользователя и получить код жертвы, что приведет к захвату аккаунта. Один из пострадавших плагинов, "AskTheCode", интегрируется между ChatGPT и GitHub, что позволяет злоумышленникам получить доступ к учетной записи жертвы.

Третья уязвимость

Еще одна уязвимость - манипуляции с перенаправлением OAuth, позволяющие злоумышленникам отправлять жертвам вредоносные URL и похищать учетные данные пользователей. Многие плагины ChatGPT запрашивают широкие разрешения на доступ к различным веб-сайтам. Это означает, что взломанные плагины могут украсть учетные данные или другие конфиденциальные данные с этих сторонних сайтов.

Следуя практике ответственного раскрытия информации, исследователи Salt Labs сотрудничали с OpenAI и сторонними поставщиками, чтобы оперативно устранить проблемы до их использования.

Это исследование подчеркивает растущую распространенность ИИ и его потенциальные риски для безопасности. В январе 2024 года "Касперский" обнаружил более 3 000 постов в "dark web" , в которых угрожающие лица обсуждали использование чат-ботов на базе ИИ, таких как ChatGPT, для разработки аналогичных инструментов для совершения киберпреступлений.

Недавно опубликованный отчет Group-IB "Hi-Tech Crime Trends 23/24" показывает рост использования киберпреступниками искусственного интеллекта, особенно для поиска украденных учетных данных ChatGPT, которые могут быть использованы для доступа к конфиденциальным корпоративным данным. В период с января по октябрь 2023 года было обнаружено более 225 000 журналов инфопохитителей, содержащих скомпрометированные учетные данные ChatGPT.

Поэтому пользователям рекомендуется тщательно проверять разрешения, устанавливать плагины только из проверенных источников и регулярно обновлять ChatGPT и плагины. Разработчики должны устранять уязвимости, связанные с выполнением кода, чтобы защитить пользовательские данные. Разработчики PluginLab должны применять надежные меры безопасности на протяжении всего жизненного цикла разработки плагинов.

Эта статья является экземпляром Текста-спринтера. Такие тексты отлично продвигают сайты в ТОП органического поиска Яндекс и Google. Здесь я пишу об этом более подробно.

Nikita Interactive, founder

Искренне Ваш,

Nikita Interactive

Это реальная история!

Раздел с Текстами-спринтерами привлек 18 090 пользователей за 9 месяцев.
На новом сайте. Без ссылок.

Измеримые результаты и устойчивый успех.