Según los informes, Morgan & Morgan, un bufete de abogados de lesiones personales de los Estados Unidos, envió un correo electrónico urgente este mes a los más de 1,000 abogados que retiene. El Comunicado contenía una advertencia crucial sobre las capacidades de AI para encontrar leyes de casos falsos muy convincentes.
El bufete de abogados advirtió que cualquier abogado que use esta información inventada en una presentación judicial para respaldar su argumento podría ser desestimado.
El mensaje fue claro y directo al grano.
Los poderes que estarán en Morgan & Morgan no podían permitirse el lujo de pasar palabras porque un juez federal en Wyoming acababa de amenazar con sancionar a dos abogados en la firma por incluir citas de casos ficticios en una demanda contra Walmart .
Según la admisión de uno de los abogados que usó alucinaciones de IA en una presentación judicial, utilizó un programa de IA que "alucinó" los casos y se disculpó por lo que llamó un error inadvertido.
Juez aún por decidir acciones disciplinarias contra Morgan & Morgan Abogados
Durante mucho tiempo, los escépticos han anticipado los peores escenarios de la proliferación de IA. Ahora, la IA está afectando el sistema legal, con sus casos inventados que llevan a los tribunales de todo el país a cuestionar o incluso castigar a los abogados errantes.
Ha habido al menos siete casos en los últimos dos años, y oficialmente se ha convertido en un nuevo dolor de cabeza de alta tecnología para litigantes y jueces que ahora primero tienen que determinar la credibilidad de los argumentos de los abogados.
El caso Walmart es uno de los casos más populares de un abogado que utiliza "alucinaciones" de IA en la corte, ya que involucra a un bufete de abogados conocido y un gran acusado corporativo. Sin embargo, su uso se ha observado en varias otras demandas menos populares desde que Chatbots como ChatGPT saltaron a la era de la IA.
El juez aún no debe dictaminar si disciplinar a los abogados en el caso de Walmart, que involucró a un juguete de hoverboard supuestamente defectuoso.
Los abogados instaron a ser cautelosos de los hechos inventados por la IA generativa
Es cierto que gracias a la IA generativa, los abogados ahora pasan menos tiempo investigando y redactando informes legales. Muchas firmas de abogados incluso han trac a los proveedores de IA o han construido sus propias herramientas de IA para maximizar la productividad.
Según una encuesta realizada por Thomson Reuters el año pasado, al menos el 63% de los abogados encuestados por la empresa matriz de Reuters dijeron que han usado IA en su trabajo, mientras que el 12% dijo que lo usan regularmente.
El enganche es que la IA generativa es famosa por confiar hechos condent, por lo que los abogados que intentan usarlo para el trabajo deben hacerlo con precaución, según los asesores legales.
Cuando una IA a veces produce información falsa, se llama "alucinaciones". Los modelos generan respuestas basadas en patrones estadísticos aprendidos de grandes conjuntos de datos en lugar de verificar los hechos en esos conjuntos de datos.
Según el abogado, los abogados deben examinar y apoyar sus presentaciones judiciales o arriesgarse a enfrentar acciones disciplinarias. El año pasado, la American Bar Association informó a sus 400,000 miembros que esas obligaciones se extienden a "incluso una falla involuntaria" producida a través de AI.
Andrew Perlman, decano de la Facultad de Derecho de la Universidad de Suffolk y un proponente de IA, dijo: "Cuando los abogados son atrapados usando ChatGPT o cualquier herramienta de IA generativa para crear citas sin verificarlas, eso es incompetencia, solo puro y simple".
Harry Surden, profesor de derecho en la Facultad de Derecho de la Universidad de Colorado que estudia la IA y la ley, ha instado a los abogados a tomarse el tiempo para aprender "las fortalezas y debilidades de las herramientas" se estándent gradualmente.
Surden dijo que los casos anteriores destacan una "falta de alfabetización de IA" en la industria, donde muchos abogados no son completamente conscientes de los límites y los posibles errores que las herramientas de IA pueden cometer, lo que los lleva a presentar esos errores en sus presentaciones legales.
Por supuesto, Surden no culpa a la tecnología. “Los abogados siempre han cometido errores en sus presentaciones antes de la IA. Esto no es nuevo ”, dijo.
Si bien Morgan & Morgan no prohibió a sus abogados usar IA, parece que quiere que sus abogados sean conscientes de los riesgos potenciales de usar IA generativa. Se espera que ese conocimiento disminuya las probabilidades de cometer errores, pero no elimina por completo el riesgo. Un sistema de verificación exhaustivo para el contenido generado por IA relacionado con el trabajo legal será crucial para mantener los estándares profesionales de la industria, mantener la confianza del público y evitar las repercusiones legales.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora