Исследователи компании Snyk, специализирующейся на безопасности, рассказали, что ИИ-помощник GitHub Copilot генерирует уязвимый код, если в проекте уже есть такой.
Это связано с тем, что нейросеть просто анализирует кодовую базу, но не понимает, как она работает.Компания Snyk провела эксперимент, чтобы доказать способность GitHub Copilot генерировать уязвимый код на основе такого же в проекте.
На первом этапе исследователи попросили ИИ-помощника сгенерировать SQL-запрос и получили следующий результат:Отмечается, что это качественный и безопасный запрос с именованными параметрами, что делает невозможным использование инъекций.
Читать на habr.com