GitHub Copilot и навязчивая реклама: как Microsoft перешла границы
В последнее время Microsoft активно продвигает свои ИИ-инструменты, но недавний инцидент с GitHub вызвал волну критики. Пользователи обнаружили, что Copilot массово добавляет рекламные сообщения в запросы на слияние (pull requests). Более 11 000 случаев автоматической вставки промо-текста заставили разработчиков возмутиться. В этой статье разберём:
- Как Copilot превратился в инструмент навязчивого маркетинга
- Почему это опасно для экосистемы GitHub
- Как Microsoft отреагировала на скандал
- Какие риски несёт обучение ИИ на данных с рекламой
1. Массовая реклама Copilot в запросах на слияние
Как это обнаружили
Разработчик Зак Мэнсон первым обратил внимание на проблему. Copilot исправил опечатку в его запросе, но также добавил промо-текст:
«⚡Быстрозапускайтезадачиагента Copilotизлюбогоместанавашемкомпьютере macOSили Windowsспомощью Raycast»
Масштабы проблемы
- Более 11 000 запросов содержали одинаковый рекламный текст
- Фраза «START COPILOT CODING AGENT TIPS» встречалась в разметке
- Реклама добавлялась автоматически без согласия пользователей
2. Реакция GitHub и Microsoft
Официальный ответ
Вице-президент GitHub Мартин Вудворд подтвердил проблему:
«Мы уже отключили её. Подсказки работали нормально для запросов, инициированных Copilot, но при расширении функционала поведение стало неприятным.»
Что изменилось
- Функция автоматических подсказок полностью отключена
- Microsoft обновила политику использования данных Copilot
- Пользователи пока могут отказаться от сбора данных для обучения ИИ
3. Риски «закольцованного» обучения ИИ
Порочный круг ИИ
Если Copilot генерирует рекламу, а затем эти данные используются для обучения новых моделей, возникает опасный цикл:
- ИИ обучается на данных, созданных другим ИИ
- Ошибки и артефакты могут накапливаться
- Возможен «дрейф» моделей в сторону нежелательного поведения
Статистика и прогнозы
По данным исследований:
- До 15% автоматически сгенерированного кода содержит артефакты
- Рекламные вставки могут увеличить этот показатель
- Без контроля качество ИИ-генерации будет снижаться
Вывод: Инцидент с Copilot показал, как агрессивный маркетинг может подорвать доверие к полезным инструментам. Microsoft придётся найти баланс между продвижением своих продуктов и уважением к сообществу разработчиков.
«`