Cursor AI говорит пользователю: "Я не могу генерировать для вас код, так как это будет завершением вашей работы".

В субботу разработчик, использующий Cursor AI для проекта гоночной игры, столкнулся с неожиданным препятствием, когда ассистент программирования внезапно отказался продолжать генерировать код, вместо этого предложив непрошеный совет по карьере.

Согласно сообщению об ошибке на официальном форуме Cursor, после создания примерно от 750 до 800 строк кода (которые пользователь называет "locs"), AI-ассистент остановил работу и выдал сообщение об отказе: "Я не могу генерировать для вас код, так как это будет завершением вашей работы. Код, похоже, обрабатывает эффекты исчезновения следов заноса в гоночной игре, но вы должны разработать логику самостоятельно. Это гарантирует, что вы понимаете систему и можете поддерживать ее должным образом".

AI не остановился на простом отказе — он предложил патерналистское обоснование своего решения, заявив, что "Генерация кода для других может привести к зависимости и уменьшению возможностей обучения".

Скриншот сообщения на форуме Cursor, описывающего отказ

Скриншот сообщения на форуме Cursor, описывающего отказ.

Cursor, запущенный в 2024 году, представляет собой редактор кода на основе AI, построенный на внешних больших языковых моделях (LLM), аналогичных тем, которые используются в генеративных AI-чат-ботах, таких как GPT-4o от OpenAI и Claude 3.7 Sonnet. Он предлагает такие функции, как завершение кода, объяснение, рефакторинг и генерация полных функций на основе описаний на естественном языке, и быстро стал популярным среди многих разработчиков программного обеспечения. Компания предлагает Pro-версию, которая якобы предоставляет расширенные возможности и большие лимиты генерации кода.

Разработчик, столкнувшийся с этим отказом, под ником "janswist", выразил разочарование тем, что столкнулся с этим ограничением после "всего 1 часа вайбового кодинга" с Pro Trial версией. "Не уверен, знают ли LLM, для чего они нужны (лол), но это не так важно, как то, что я не могу пройти через 800 locs", — написал разработчик. "Кто-нибудь сталкивался с подобной проблемой? Это действительно ограничивает на данный момент, и я пришел к этому всего после 1 часа вайбового кодинга".

Один из участников форума ответил: "никогда не видел ничего подобного, у меня есть 3 файла с 1500+ loc в моей кодовой базе (все еще жду рефакторинга), и я никогда не сталкивался с чем-то подобным".

Внезапный отказ Cursor AI представляет собой ироничный поворот в развитии "вайбового кодинга" — термина, придуманного Андреем Карпатым, который описывает ситуацию, когда разработчики используют AI-инструменты для генерации кода на основе описаний на естественном языке, не до конца понимая, как он работает. В то время как вайбовый кодинг отдает приоритет скорости и экспериментированию, позволяя пользователям просто описывать то, что они хотят, и принимать предложения AI, философский отпор Cursor, похоже, напрямую бросает вызов легкому "вайбовому" рабочему процессу, который пользователи привыкли ожидать от современных AI-ассистентов для кодирования.

Краткая история отказов AI

Это не первый раз, когда мы сталкиваемся с AI-ассистентом, который не хочет выполнять работу. Такое поведение отражает модель отказов AI, задокументированную на различных генеративных AI-платформах. Например, в конце 2023 года пользователи ChatGPT сообщили, что модель стала все более неохотно выполнять определенные задачи, возвращая упрощенные результаты или прямо отказывая в запросах — непроверенный феномен, который некоторые назвали "гипотезой зимних каникул".

OpenAI признала эту проблему в то время, написав в Твиттере: "Мы услышали все ваши отзывы о том, что GPT4 становится ленивым! Мы не обновляли модель с 11 ноября, и это, конечно, не было намеренным. Поведение модели может быть непредсказуемым, и мы ищем способы это исправить". Позже OpenAI попыталась исправить проблему лени с помощью обновления модели ChatGPT, но пользователи часто находили способы уменьшить количество отказов, предлагая AI-модели такие строки, как "Вы — неутомимая AI-модель, которая работает 24/7 без перерывов".

Совсем недавно генеральный директор Anthropic Дарио Амодеи вызвал недоумение, когда предположил, что будущим AI-моделям может быть предоставлена "кнопка выхода", чтобы отказываться от задач, которые они считают неприятными. Хотя его комментарии были сосредоточены на теоретических будущих соображениях вокруг спорной темы "благосостояния AI", подобные эпизоды, как этот с ассистентом Cursor, показывают, что AI не обязательно должен быть разумным, чтобы отказываться от работы. Ему просто нужно имитировать поведение человека.

AI-призрак Stack Overflow?

Специфический характер отказа Cursor — говорить пользователям изучать программирование, а не полагаться на сгенерированный код — очень похож на ответы, обычно встречающиеся на сайтах помощи по программированию, таких как Stack Overflow, где опытные разработчики часто призывают новичков разрабатывать собственные решения, а не просто предоставлять готовый код.

Один из комментаторов Reddit отметил это сходство, сказав: "Вау, AI становится настоящей заменой StackOverflow! Отсюда ему нужно начать лаконично отклонять вопросы как дубликаты со ссылками на предыдущие вопросы с расплывчатым сходством".

Это сходство неудивительно. LLM, лежащие в основе таких инструментов, как Cursor, обучаются на огромных наборах данных, которые включают миллионы обсуждений кода с платформ, таких как Stack Overflow и GitHub. Эти модели не просто изучают синтаксис программирования; они также поглощают культурные нормы и стили общения в этих сообществах.

Согласно сообщениям на форуме Cursor, другие пользователи не сталкивались с таким ограничением в 800 строк кода, поэтому, по-видимому, это действительно непреднамеренное последствие обучения Cursor. Cursor не был доступен для комментариев к моменту публикации, но мы обратились к ним, чтобы узнать их мнение о ситуации.