No hay ChatGPT en mi corte: el juez ordena que todo el contenido generado por IA sea declarado y verificado

No hay ChatGPT en mi corte: el juez ordena que todo el contenido generado por IA sea declarado y verificado

Pocos abogados estarían lo suficientemente locos como para permitir que una IA presente su caso, pero uno ya lo hizo, y el juez Brantley Starr está tomando medidas para garantizar que la debacle no vuelva a ocurrir en su sala de justicia.

El juez federal de Texas agregó el requisito de que cualquier abogado que comparezca en su tribunal debe certificar que «ninguna parte del registro fue creada por una inteligencia artificial generativa», o si lo fue, que fue verificada «por un ser humano».

La semana pasada, el abogado Steven Schwartz permitió que ChatGPT «completara» su investigación legal sobre una presentación federal reciente, brindándole seis casos y precedentes relevantes, todos los cuales quedaron completamente impresionados por el modelo de lenguaje. El ahora «lamento mucho» haber hecho esoy aunque la cobertura nacional de este error probablemente hizo que otros abogados consideraran intentarlo, el juez Starr no se arriesga.

En el sitio federal del Distrito Norte de Texas, Starr, al igual que otros jueces, tiene la capacidad de establecer reglas específicas para su sala de audiencias. Y agregado recientemente (aunque no está claro si esto fue en respuesta a la presentación antes mencionada) es el «Certificación obligatoria en materia de inteligencia artificial generativa». Eugene Volok dio la noticia por primera vez.

Todos los abogados que comparecen ante el Tribunal deben presentar en el expediente un certificado que indique que ninguna parte de la presentación fue escrita por inteligencia artificial generativa (como ChatGPT, Harvey.AI o Google Bard) o que cualquier lenguaje escrito por inteligencia artificial generativa ha sido escrito. Verificado por precisión, utilizando periodistas impresos o bases de datos legales tradicionales, por un ser humano.

Se adjunta un formulario para que lo firmen los abogados, señalando que «citas, citaciones, afirmaciones parafraseadas y análisis legales» están todos cubiertos por esta prohibición. Dado que resumir es uno de los puntos fuertes de la IA, e investigar y resumir casos pasados ​​o anteriores es algo que se ha anunciado como potencialmente útil en el trabajo legal, esto puede terminar entrando en juego con más frecuencia de lo esperado.

LEER  Resumen de TechCrunch+: repensar PLG, precios de SaaS habilitados para IA, viajar con una tarjeta verde

Quien haya escrito el memorándum sobre este caso en la oficina del juez Starr está al tanto. El requisito de certificación incluye una explicación bastante bien informada y convincente de su necesidad (se agregaron saltos de línea para mejorar la legibilidad):

Estas plataformas son increíblemente poderosas y tienen muchos usos en la ley: formularios de divorcio, solicitudes de descubrimiento, errores sugeridos en documentos, preguntas anticipadas durante los alegatos. Pero el briefing legal no es uno de ellos. Este es el por qué.

Estas plataformas en su estado actual son propensas a alucinaciones y sesgos. Sobre las alucinaciones, inventan cosas, incluso citas y citas. Otro problema es la confiabilidad o el sesgo. Mientras que los abogados hacen un juramento para dejar de lado sus prejuicios, prejuicios y creencias personales para defender fielmente la ley y representar a sus clientes, la inteligencia artificial generativa es el producto de una programación diseñada por humanos que no han tenido que hacer tal juramento.

Como tales, estos sistemas no tienen lealtad a ningún cliente, al estado de derecho oa las leyes y la Constitución de los Estados Unidos (o, como se señaló anteriormente, a la verdad). Sin ningún sentido del deber, el honor o la justicia, estos programas actúan de acuerdo con un código de computadora en lugar de una creencia, basados ​​en programación en lugar de principios. Cualquier parte que crea que una plataforma tiene la precisión y la confiabilidad requeridas para una sesión informativa legal puede solicitar una autorización y explicar por qué.

En otras palabras, prepárate para justificarte.

LEER  Xavier 'X' Jernigan, la voz del DJ de Spotify, explica cómo es convertirse en una IA

Aunque este es solo un juez en un tribunal, no sería sorprendente que otros adoptaran esta regla como propia. Aunque, como dice el tribunal, es una tecnología poderosa y potencialmente útil, su uso debe, como mínimo, establecerse claramente y verificarse su exactitud.

Más contenidos sobre empresas en América Latina

Deja una respuesta