Un avocat de New York, Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman, a été critiqué pour avoir intégré ChatGPT, un modèle de langage d'IA, dans ses recherches juridiques tout en traitant un procès contre Avianca Airlines. L'affaire concerne Robert Mata, qui affirme avoir été blessé par un chariot de service lors d'un vol avec la compagnie aérienne colombienne en 2019, comme l'a rapporté CNN Business le 28 mai.
L'avocat a présenté des documents erronés obtenus de ChatGPT
L'affaire a pris une tournure inattendue lorsque le juge chargé de la procédure a remarqué des incohérences et des erreurs factuelles dans la documentation fournie. Dans un affidavit daté du 24 mai, Schwartz a admis avoir utilisé ChatGPT pour ses recherches juridiques et a affirmé qu'il n'était pas au courant du potentiel de fausses informations dans son contenu. Il a en outre déclaré que c'était la première fois qu'il utilisait le modèle d'IA pour la recherche juridique.
L'examen du juge a révélé que plusieurs cas soumis par l'avocat semblaient être fictifs, comportant des citations fabriquées et des citations internes inexactes. De plus, certains cas référencés se sont avérés inexistants, et il y a eu un cas où un numéro de dossier a été associé par erreur à un autre dossier judiciaire.
L'avocat a exprimé ses regrets de s'être appuyé sur le chatbot de l'IA sans faire preuve de diligence raisonnable. Son affidavit a souligné qu'il regrettait grandement d'avoir utilisé l'intelligence artificielle générative dans le processus de recherche et s'engage à ne pas répéter la pratique sans une vérification absolue de l'authenticité.
Les analystes discutent du potentiel de l'IA pour remplacer les humains
L'intégration de ChatGPT dans les flux de travail professionnels a suscité un débat permanent concernant son adéquation et sa fiabilité. Alors que l'intelligence des modèles d'IA comme ChatGPT continue de progresser, des doutes subsistent quant à leur capacité à remplacer entièrement les travailleurs humains. Syed Ghazanfer, un de chaînes de blocs , reconnaît la valeur de ChatGPT mais remet en question ses compétences en communication en tant que substitut complet de l'interaction humaine. Il souligne que les langages de programmation ont été créés pour répondre à des exigences qui peuvent ne pas être transmises efficacement en anglais natif.
Au fur et à mesure que la technologie de l'IA progresse, les développeurs et les professionnels naviguent dans l'équilibre délicat entre l'exploitation de ses capacités et la garantie de l'exactitude et de la validité des informations qu'elle génère. L'affaire impliquant Steven Schwartz et son utilisation de ChatGPT sert de récit édifiant, soulignant l'importance de la surveillance humaine et de l'évaluation critique dans la recherche juridique et d'autres contextes professionnels.
Bien que les modèles d'IA comme ChatGPT puissent aider à rationaliser certaines tâches, ils doivent être utilisés conjointement avec une expertise humaine et des processus de vérification approfondis pour minimiser le risque d'inexactitudes et de fausses informations. Alors que les limites des capacités de l'IA s'étendent, il reste essentiel pour les professionnels de faire preuve de prudence et de discernement lors de l'intégration de tels outils dans leur travail.