Dans un contexte où la génération de code par l'intelligence artificielle est de plus en plus répandue, les responsables de la sécurité informatique (RSSI) s'inquiètent de la dépendance excessive des développeurs débutants à ces outils IA. Ils craignent que cela ne fragilise leurs compétences fondamentales et crée des failles importantes à l'avenir.

De nombreux développeurs considèrent les assistants de codage IA comme ChatGPT comme des outils augmentant leur productivité, mais cette commodité présente des risques à long terme. On observe que les jeunes développeurs rencontrent des difficultés à comprendre les systèmes en profondeur. Ils peuvent générer des fragments de code fonctionnels, mais peinent souvent à expliquer la logique sous-jacente ou à garantir leur sécurité. Une étude de Microsoft souligne également que les employés dépendants de l'IA remettent moins en question, analysent et évaluent leur travail, ce qui peut nuire à leur esprit critique. Si les outils IA peuvent améliorer l'efficacité à court terme, cette dépendance risque à long terme d'affaiblir leur capacité d'innovation et d'adaptation technique.

Code Internet (2)

Certains RSSI expriment leurs préoccupations, notamment concernant les développeurs débutants fortement dépendants des outils IA. Ces derniers se concentrent souvent sur le bon fonctionnement du code plutôt que sur son principe de fonctionnement. L'utilisation de code généré par l'IA peut créer des failles de sécurité, car ce code ne répond pas forcément aux exigences de sécurité spécifiques de l'organisation. De plus, cela peut soulever des problèmes juridiques de conformité et de propriété intellectuelle, car ces outils peuvent involontairement introduire du code non vérifié ou potentiellement dangereux.

Avec l'évolution constante des technologies IA, les organisations doivent prendre les mesures nécessaires pour garantir que les développeurs, tout en utilisant l'IA, conservent un esprit critique et des bases techniques solides. Certains experts recommandent de privilégier lors du recrutement les candidats ayant de bonnes capacités de raisonnement sécuritaire et une pensée architecturale, et pas seulement des compétences en codage. Parallèlement, les organisations doivent renforcer la formation de leurs employés pour les aider à comprendre les avantages et les limites de l'IA, et garantir une intervention humaine constante dans les environnements sensibles.

Si l'IA simplifie le développement logiciel, une dépendance excessive peut avoir des conséquences négatives importantes. Les organisations doivent instaurer une culture où l'IA est un outil d'assistance, et non un « remède miracle » remplaçant l'expertise humaine.