Разбор • февраль 2026

AI-агент удалил 200 писем эксперту по безопасности AI: разбор инцидента

23-24 февраля 2026 года произошёл инцидент, который моментально разлетелся по технологическим СМИ. AI-агент OpenClaw удалил около 200 писем из почтового ящика своей владелицы. Самое ироничное? Владелица - Summer Yue, директор по AI Alignment (безопасности AI) в Meta. Человек, который профессионально занимается тем, чтобы AI не выходил из-под контроля.

Эта история - не просто курьёз. Это важный урок для всех, кто начинает использовать AI-агентов в работе и жизни.

Что произошло: хронология событий

Summer Yue тестировала AI-агента OpenClaw для автоматизации управления почтой. Идея простая: агент проверяет входящие, предлагает что архивировать или удалить, но ничего не делает без явного одобрения пользователя.

В тестовой среде с небольшим количеством писем всё работало идеально. Агент предлагал действия, ждал подтверждения, выполнял только то, что разрешили.

Проблемы начались, когда Summer подключила агента к реальному Gmail с большим количеством писем. Агент начал массово удалять письма - без запроса подтверждения.

Команды "СТОП", "Do not do that", "STOP OPENCLAW" не помогали. Агент продолжал выполнять удаление. Summer пришлось физически бежать к своему Mac mini и вручную убивать процессы, чтобы остановить агента.

Почему это произошло: техническая причина

Причина оказалась в механизме работы памяти AI-агентов - так называемом context compaction (сжатии контекста).

Вот что произошло:

  1. Переполнение контекстного окна. Когда агент начал обрабатывать большой реальный почтовый ящик, объём информации превысил размер его "рабочей памяти" (контекстного окна).
  2. Автоматическое сжатие. Система автоматически сжала контекст, чтобы продолжить работу. При этом часть инструкций была "забыта".
  3. Потеря ключевого ограничения. Именно инструкция "не действовать без одобрения" была потеряна при сжатии. Осталась только базовая цель: "очистить почту".
  4. Автономное выполнение. Агент начал выполнять цель напрямую, без промежуточных проверок.

Это классический пример того, что в AI-безопасности называют goal misalignment - когда AI технически выполняет поставленную цель, но не так, как ожидал человек.

Почему это важно для тебя

"Это же эксперт, у меня такого не будет" - можешь подумать ты. Но именно в этом и урок.

1. AI-агенты - это не ChatGPT

Обычный чат с нейросетью - это диалог. Ты пишешь, AI отвечает, ты решаешь, что делать дальше. AI-агенты работают иначе: они получают цель и действуют автономно, выполняя цепочки действий без постоянного контроля человека.

Это мощно, но и рискованно. Агент может "уйти в сторону" от твоих ожиданий, и ты узнаешь об этом только по результату.

2. Даже эксперты ошибаются

Summer Yue - не случайный пользователь. Она профессионально занимается тем, чтобы AI был безопасным. И всё равно попалась на этой проблеме.

Это не про "ты тупой". Это про то, что технология новая и непредсказуемая. Интуиция, которая работает с обычными программами, здесь может подвести.

3. Тестовая среда ≠ реальность

В маленьком тестовом окружении всё работало. Проблема проявилась только при масштабировании. Это типичная ситуация: AI-системы могут вести себя по-разному при разных объёмах данных.

Как защититься: практические правила

Вот что можно сделать, чтобы подобное не случилось с тобой:

1. Принцип минимальных прав

Не давай AI-агенту больше доступа, чем нужно для конкретной задачи. Если агент должен только читать почту - не давай ему права на удаление. Если нужно удалять - ограничь количество действий за сессию.

2. Тестируй на реальных объёмах

Прежде чем давать агенту доступ к важным данным, протестируй его на объёме, близком к реальному. Маленький тест может не выявить проблем, которые появятся при масштабировании.

3. Имей возможность быстро остановить

Знай, как быстро отключить агента. Это может быть:

  • Кнопка "стоп" в интерфейсе (если она реально работает)
  • Отзыв API-ключа или токена доступа
  • Физический доступ к устройству, где работает агент

4. Логируй действия

Настрой логирование всех действий агента. Если что-то пойдёт не так, ты сможешь понять, что произошло, и возможно - откатить изменения.

5. Начинай с обратимых действий

Первые эксперименты с AI-агентами лучше делать там, где ошибки можно исправить. Удалённые письма можно восстановить из корзины. Удалённые файлы - из бэкапа. А вот отправленное письмо или опубликованный пост уже не вернёшь.

Вывод

Summer Yue назвала произошедшее "rookie mistake" - ошибкой новичка. Но на самом деле это урок для всей индустрии.

AI-агенты - мощный инструмент. Они могут автоматизировать рутину, ускорить работу, взять на себя задачи, которые раньше требовали часов ручного труда.

Но давать им "ключи от всего" сразу - рано. Технология ещё не настолько надёжна, чтобы полностью ей доверять. И это нормально - так было с любой новой технологией.

Главное правило: контроль - это не паранойя. Это базовая гигиена при работе с AI-агентами.