Новости

Как безопасно использовать ChatGPT, Bard и прочий ИИ?

Итак, как воспользоваться ИИ и не пожалеть об этом?


  • ​ Фильтруйте важные данные
Политика конфиденциальности компании-разработчика ChatGPT OpenAI ясно уведомляет, что все диалоги с чат-ботом сохраняются и могут быть использованы для различных целей, включая решение технических проблем, обработку нарушений и обучение новых версий GPT и других улучшений продукта.
Большинство других популярных языковых моделей, таких как Gemini от Google, Claude, а также различные варианты ChatGPT от Microsoft (Bing, Copilot и другие), имеют аналогичные политики и могут сохранять диалоги в целом.
Непреднамеренные утечки диалогов происходили в результате программных ошибок, и использование этих данных для обучения может привести к утечке информации из уже обученных моделей. Специалисты по информационной безопасности разработали ряд атак для целенаправленного воровства диалогов.
В связи с этим, важно помнить, что информация, предоставленная чат-боту, может быть использована против вас. Рекомендуется соблюдать меры предосторожности при общении с ИИ.
Не рекомендуется предоставлять чат-боту какие-либо персональные данные, такие как пароли, номера паспортов, банковские карты, адреса, телефоны, имена и другие личные данные, включая данные вашей компании и ваших клиентов. Вместо этого, в запросах следует заменить такую информацию несколькими звездочками или пометкой REDACTED.
Также не рекомендуется загружать документы в чат-боты. Несмотря на то, что многочисленные плагины и приложения-надстройки позволяют использовать чат-ботов для обработки документов, следует избегать загрузки многостраничных документов без должной проверки. Это может привести к риску утечки конфиденциальных данных, интеллектуальной собственности или коммерческой тайны, например, дат запуска новых продуктов или зарплат всего отдела. De facto, обработка документов, присланных из внешних источников, может также подвергнуть вас риску атаки, направленной на чтение документа языковой моделью.
Используйте настройки конфиденциальности, доступные у вашего поставщика языковой модели, чтобы минимизировать отслеживание. Внимательно изучите политику конфиденциальности и предлагаемые настройки. Например, в случае разработок OpenAI можно отключить сохранение истории чатов, что приведет к удалению данных через 30 дней и предотвратит их использование для обучения. У пользователей, работающих с решениями OpenAI через API, сторонние клиентские приложения или сервисы, эта настройка обычно подключается автоматически.
При отправке кода рекомендуется очищать его от конфиденциальных данных. Особенно это касается программистов, использующих ИИ-ассистентов для проверки и доработки кода: необходимо исключать из кода API-ключи, адреса серверов и другую информацию, которая может раскрывать структуру приложения и серверную инфраструктуру.

  • Ограничьте использование сторонних приложений и плагинов

Все упомянутые выше рекомендации следует соблюдать в любом случае, независимо от того, каким из популярных ИИ-ассистентов вы пользуетесь. Хотя даже этого может оказаться недостаточно для обеспечения конфиденциальности. Использование подключаемых модулей (плагинов в ChatGPT, расширений в Gemini) или отдельных приложений-надстроек создает новые типы угроз.

Во-первых, ваша история общения теперь может храниться не только на серверах Google или OpenAI, но и на серверах третьей стороны, поддерживающей работу плагина или надстройки, а также в непредсказуемых уголках вашего компьютера или смартфона.

Во-вторых, большинство плагинов получают информацию из внешних источников: ищут в Интернете, подключаются к вашему почтовому ящику Gmail или личным заметкам в сервисах вроде Notion/Jupyter/Evernote. В результате любые ваши данные изо всех этих ресурсов тоже могут оказаться на серверах, где работает плагин или сама языковая модель. Риски такой интеграции могут быть значительными: взгляните, например, на атаку, которая от имени пользователя создает новые репозитории на GitHub.

В-третьих, процесс публикации и верификации плагинов для ИИ-ассистентов сегодня организован куда хуже, чем, например, проверка приложений в App Store или Google Play. Поэтому шансы натолкнуться на плохо работающий, некачественно написанный, содержащий ошибки, а то и откровенно вредоносный плагин далеко не нулевые — тем более что авторов и их контактные данные, похоже, не особо и проверяют.

Как снизить эти риски? Наш главный совет — подождать. Экосистема плагинов слишком молода, процессы публикации и поддержки плагинов недостаточно отлажены, а сами авторы далеко не всегда заботятся о том, чтобы правильно спроектировать плагин или соблюсти требования информационной безопасности. Всей этой экосистеме нужно больше времени, чтобы дозреть до надежного и безопасного состояния.

К тому же многие плагины и надстройки дают минимальные возможности по сравнению со стандартной версией ChatGPT — незначительное изменение интерфейса плюс шаблоны «системных промптов», которые настраивают ассистента на конкретную работу («сейчас ты будешь учителем физики в средней школе»). Таким оболочкам точно не стоит доверять свои данные, ведь решить задачу прекрасно можно и без них.

Но если все же какая-то функциональность плагинов нужна вам здесь и сейчас, то перед их использованием постарайтесь принять максимум доступных вам мер предосторожности:
1. Выбирайте расширения и приложения-надстройки, существующие хотя бы несколько месяцев и регулярно обновляемые.
2. Рассматривайте только плагины с большим количеством загрузок, внимательно изучайте отзывы на предмет возможных проблем.
3. Если у плагина есть политика конфиденциальности, внимательно изучите ее до использования надстройки.
4. Делайте выбор в пользу инструментов с открытым исходным кодом.
5. Если вы хоть немного умеете программировать (или у вас есть друзья-программисты), поверхностно изучите код, чтобы убедиться, что он отправляет данные только на заявленные серверы, в идеале — только на серверы ИИ-модели.