L'agent conversationnel d'OpenAI ChatGPT inquiète les développeurs coréens

Les salariés des studios de développement peuvent être enclins à utiliser ChatGPT pour vérifier leur code informatique. Problème : l'intelligence artificielle est susceptible « d'apprendre » ce code (protégé par le droit d'auteur) et de le réutiliser auprès de tiers. 

ChatGPT (OpenIA)

L’intelligence artificielle est évidemment utilisée de longue date dans l’industrie du jeu, que ce soit pour animer des univers virtuels ou faciliter le travail des développeurs. Depuis quelques mois, plusieurs « agents conversationnels » sont néanmoins librement accessibles au grand public et certains salariés de studios de développement de jeux peuvent être enclins à les utiliser, par exemple pour générer, débuguer ou valider du code informatique – et ChatGPT, l’agent conversationnel d’OpenAI, se révèle manifestement plutôt efficace en la matière.

ChatGPT apprend trop efficacement

Une efficacité qui inquiète néanmoins les studios de développement en Corée du Sud : successivement, NCsoft et Nexon viennent de diffuser des notes à leurs développeurs, les enjoignant à la prudence dans leurs échanges avec l’intelligence artificielle. NCsoft a ainsi diffusé un « guide de bonnes pratiques quant à l’usage de ChatGPT » après avoir constaté « divers problèmes survenus suite à une utilisation incorrecte » du logiciel par ses salariés, soulevant « des problématiques de propriété intellectuelle et de protection de la vie privée ». Même recommandation chez Nexon qui redoute des « fuites de code » et des problématiques de droit d’auteur.

Dans les conditions d’utilisation de ChatGPT, OpenAI précise en effet que les informations dont on « alimente » son IA dans le cadre d’échanges sont susceptibles d’être enregistrées et utilisées pour améliorer ses performances et nourrir ses propres bases de données. En d’autres termes, quand un développeur lui soumet du code à optimiser ou à débuguer, l’IA est susceptible d’exploiter ce code (« l'apprendre »), pour ensuite le réutiliser dans le cadre de futurs échanges avec des tiers. Or le code développé par les salariés de NCsoft ou de Nexon est du code propriétaire, qui n’a pas vocation à sortir des serveurs de la société.
En d'autres termes, en confiant des informations à ChatGPT, les développeurs des studios lui livrent potentiellement des secrets industriels susceptibles d'être diffusés publiquement sans contrôle. 

Mais se révèle loin d'être fiable

Des préoccupations similaires émergent également au sein du gouvernement sud-coréen, qui lui aussi a distribué un guide de bonnes pratiques à ses agents publics. Comme les développeurs, l’administration sud-coréenne redoute « des fuites d’information importantes » mais ciblant plutôt « des données personnelles » (incluant potentiellement celles des administrés) mais aussi « la génération de fausses informations ». On le sait, ChatGPT est une IA qui repose sur une  méthode de prédiction de texte dont les réponses sont donc basées sur des probabilités et non sur des faits vérifiés. L'IA communique les réponses « les plus probables » aux questions qu'on lui pose, pas les plus justes, et peut donc formuler de grosses erreurs avec beaucoup d'aplomb. Les autorités enjoignent donc les agents des services publics locaux à ne pas prendre pour argent comptant les affirmations de l’IA et « à toujours vérifier et confirmer la véracité » des données communiquées par ChatGPT pour ne pas risquer de propager de fausses informations auprès des administrés.

En d’autres termes, l’IA peut sans doute être une aide efficace dans certaines circonstances, mais encore faut-il l’aborder avec le recul nécessaire.

Réactions (62)

Afficher sur le forum