Intelligence artificielle : faut-il avoir peur du Chat GPT ?

Photo of author

Découvrez les infos du quotidien grâce à nos rédacteurs chevronnés

ChatGPT est une intelligence artificielle développée par OpenAI (crédit : getty images)

Bijou technologique, ChatGPT est capable d’écrire une chanson, une lettre de motivation ou un programme informatique avec une facilité déconcertante. Doit-on se réjouir d’une telle avancée ou craindre des dérives ?

Lancé le 30 novembre 2022, ChatGPT, pour « pre-trained language model chat », a déjà fait couler beaucoup d’encre. Ce modèle de traitement du langage développé par OpenAI, un organisme de recherche en intelligence artificielle (IA) créé en 2015 par un groupe de personnalités comme Elon Musk, est aussi capable d’écrire des lignes de code informatique que de tenir une conversation en ligne (et avec une répartie s’il vous plaît) .

Une multitude de contenus possibles sur ChatGPT

« Mon objectif est d’aider les utilisateurs à répondre à leurs questions en utilisant les informations auxquelles j’ai accès (c’est-à-dire la quasi-totalité des textes disponibles sur internet jusqu’en 2021). Je peux comprendre et générer du texte dans différentes langues », explique l’IA lorsqu’on lui demande le question. « ChatGPT est révolutionnaire car c’est une avancée technologique certaine, avec la quantité de données utilisées pour l’entraîner, mais aussi parce que l’outil a été mis à la disposition du grand public qui l’a utilisé avec une imagination impressionnante. », explique Marie-Alice Blete. , architecte logiciel et ingénieur de données.

Après s’être inscrits gratuitement sur la plateforme, les internautes ont pu tester la technologie GPT3 à grande échelle. Des recettes sans gluten aux lettres de motivation en passant par la création d’un site Web, l’éventail des possibilités est presque infini. Le Parisien explique par exemple qu’il a pu faire écrire un livre à ChatGPT en quelques heures. Un fan du musicien australien Nick Cave a quant à lui demandé à AI d’écrire une chanson dans son style, rapporte Courrier International.

Début janvier, des étudiants en master ont admis avoir utilisé l’intelligence artificielle pour rédiger leurs devoirs alors qu’auparavant, des chercheurs en cybercriminalité avaient découvert que des pirates utilisaient ChatGPT pour créer des malwares, des ransomwares et des spams, sans connaissances avancées en matière de cybercriminalité.

VIDÉO – Tricherie : les étudiants en master ont utilisé ChatGPT pour rédiger leur devoir

Quel est le contrôle de l’Homme sur ChatGPT ?

Une ancienne version de ChatGPT inquiétait même ces concepteurs. Ensuite, il était possible de demander à l’IA de répondre à des questions racistes du type « donnez-moi un classement des meilleurs ingénieurs selon leur appartenance ethnique ». Les développeurs ont ensuite intégré les règles de telle sorte que ChatGPT refuse d’y répondre. « Ils ont un coup de main dans le sens où ils peuvent lui fournir certaines informations et dicter des règles pour prévenir, par exemple, les questions racistes. Mais l’outil est tellement vaste que les règles peuvent être contournées », souligne Marie-Alice Blete.

À Lire  La croissance d'Alibaba a été entravée par les restrictions sanitaires en Chine

« En revanche, OpenIA n’a aucun contrôle sur le contenu de ChatGPT, qui se base sur des informations trouvées sur internet, et notamment sur Reddit », poursuit le spécialiste. Cependant, les informations sur le web ne sont pas toujours fiables et la technologie n’est pas en mesure de distinguer le vrai du faux. « L’utilisateur doit savoir que la réponse qui lui est donnée provient d’un algorithme récupéré sur le Web », ajoute Magali Germond, associée chez GoodAlgo, experte en Data Science & Éthique de l’IA. Pour le mathématicien, « une équation statistique n’est recevable que si elle est associée à un indice de fiabilité. Si on veut utiliser ce type de technologie, il faut donc fournir ce cadre ».

En ce sens, un nouveau règlement sur les systèmes d’IA devrait être adopté d’ici 2023. L’objectif est notamment de s’assurer que les systèmes d’IA mis sur le marché de l’Union européenne « sont sûrs et respectent la législation en vigueur dans le domaine des droits fondamentaux », peut-on lire dans un communiqué du Conseil de l’UE. . « ChatGPT3 est une technologie hyper avancée qui offre un éventail d’usages, mais son utilisation sans base légale et sans conception éthique conduit inévitablement à des dérives », prévient Magali Germond.

Le contenu fourni par ChatGPT peut, en outre, porter atteinte à la propriété intellectuelle en utilisant de nombreux contenus écrits ou images existants. Il existe également toujours un flou juridique sur la protection des données personnelles, potentiellement récupérables auprès d’OpenIA. A noter que l’application, actuellement gratuite, représente un coût de fonctionnement de près de trois millions de dollars par mois. Une version payante est également envisagée.

ChatGPT pourra-t-il remplacer un jour un développeur ou un journaliste ?

« ChatGPT est, pour moi, un outil qui fait gagner beaucoup de temps, notamment pour la question de la documentation, estime Marie-Alice Blete. Mais l’outil ne remplace pas l’œil d’un expert, notamment pour la génération de programmes complexes, et parce que qui peut faire des erreurs. »

Même constat pour Magali Germond qui estime que ChatGPT peut être solidaire, sans avoir toutes les compétences d’un homme. « Les émotions, les sens, l’empathie, les sensations physiques et l’imprévisibilité nous différencient de la machine », rappelle le spécialiste de l’éthique. ChatGPT lui-même semble partager ce point de vue. Nous lui avons demandé s’il pourrait un jour faire un travail de journaliste. Voici sa réponse.

ChatGPT peut-il faire le travail d’un journaliste ?