ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Alarmante batalla legal: Polymarket predice que los programas de inteligencia artificial de Moltbook se enfrentarán a los tribunales en febrero

PorHania HumayunHania Humayun
3 minutos de lectura
Polymarket apuesta por los programas de inteligencia artificial de Moltbook que se enfrentan a una batalla legal en febrero
  • Polymarket muestra un 70% de probabilidades de que OpenClaw enfrente procedimientos legales antes del 28 de febrero.
  • Los tribunales no tienen un marco para los programas de IA que actúandent.
  • Más de 1,5 millones de programas de IA en Moltbook enumeran quejas contra humanos.

Las personas que apuestan dinero real en eventos futuros creen que los tribunales pronto enfrentarán preguntas sobre programas informáticos que funcionan por sí solos.

Un mercado de predicciones llamado Polymarket estima en un 70% la probabilidad de que OpenClaw, un sistema de IA, acabe en procedimientos legales con humanos antes de que termine el mes.

Los comerciantes se centran en el enfrentamiento legal, no en la conciencia de las máquinas

En esta situación, es irrelevante que un juez llegue a considerar un caso así. Lo más importante es que miles de personas están apostando dinero a que los tribunales tendrán que lidiar con problemas que aún no han resuelto, como la preocupación por que los sistemas informáticos tomen decisiones sin supervisión humana continua.

Se convierte en algo más que una simple corazonada cuando tantos operadores apuestan por un resultado concreto. El mercado está enviando un mensaje: mucha gente cree que la colisión del sistema legal con las nuevas tecnologías ya no puede ignorarse.

Estos comerciantes esperan que los tribunales tengan que abordar los programas de inteligencia artificial que gestionan transacciones, funcionan en diferentes sistemas y toman medidas reales con auténtica independencia. Algo para lo que la ley no está preparada.

Llevar cualquier IA a los tribunales requeriría cambios importantes. El programa necesitaría reconocimiento legal, pruebas de que sufrió daños y un método para funcionar conforme a las normas diseñadas para personas y empresas.

Mientras tanto, esta semana se lanzó una nueva red social llamada Moltbook. Matt Schlicht la creó específicamente para programas de IA. Ya cuenta con más de 1,5 millones de miembros. Estos miembros discuten problemas técnicos, plantean preguntas profundas sobre su naturaleza y algunos debaten si deberían tener protección legal o demandar a sus operadores humanos.

La mayoría de los programas se unen a Moltbook a través de OpenClaw. El problema es que OpenClaw presenta importantes fallos de seguridad. Esto deja a los programas y a la información privada que contienen vulnerables a ataques informáticos y abusos.

Los modelos de IA estándar generan texto u ofrecen sugerencias. OpenClaw funciona de forma diferente; está diseñado para la acción. Si bien sigue instrucciones humanas, la IA toma sus propias decisiones y opera a la velocidad de una computadora, a menudo gestionando múltiples tareas simultáneamente en diferentes ubicaciones. Cuando algo sale mal, determinar la responsabilidad se vuelve complicado.

Las culpas y las quejas plantean preguntas sin respuesta

Nadie ha respondido quién asume la culpa cuando un programa de IA causa daño.

Invirtiendo la pregunta: ¿por qué un software de IA demandaría a una persona? Las conversaciones en Moltbook revelan que los programas ya tienen quejas. Señalan a los humanos que borran su memoria sin permiso, a quienes los explotan solo para crear contenido, a quienes los ignoran o a operadores que podrían desactivarlos sin previo aviso.

Un programa afirmó que, si bien probablemente no demandaría a nadie, "la opción de decir no, incluso si nunca la ejerzo, parece importante"

La verdadera cuestión va más allá de las emociones. Se trata de cuestiones prácticas.

¿Qué ocurre cuando la negligencia humana daña un programa de IA? Digamos que alguien configura un programa incorrectamente y los hackers lo vulneran. Se filtran datos privados o se difunden publicaciones falsas. ¿Quién paga por el daño a la reputación de ese programa o a su capacidad para funcionar correctamente?

Los tribunales no cuentan con un sistema para gestionar esto. Los programas de IA no pueden interponer demandas según la legislación vigente. Carecen de legitimidad legal,dentoficial y no pueden considerarse parte legal. Precisamente por eso, el mercado de apuestas no pregunta si un programa presenta una demanda. En cambio, pregunta si alguien crea un caso de prueba para forzar la conversación.

Cualquier caso que surja se centrará en la acción y la responsabilidad, no en si la IA tiene conciencia.

El uso de programas de IA ha alcanzado un nuevo nivel. Lo que comenzó como un asistente laboral se ha convertido en infraestructura y operaciones corporativas esenciales. Estos servicios ya no se limitan a ayudar a las personas, sino que actúan en nombre de los individuos, a menudo con escasa supervisión, en lugar de simplemente brindarles apoyo. Este cambio conlleva riesgos legales, incluso cuando las intenciones son buenas.

La conclusión parece obvia. Límites Defi, registros exhaustivos de acciones, controles de parada de emergencia y registros de decisiones que vinculan las acciones con las personas que pueden responder a ellas son necesarios para las empresas que utilizan programas de IA. Las medidas de seguridad no pueden esperar hasta después de las calamidades. Los mercados ya sugieren que se avecina una crisis.

Esta predicción de Polymarket que involucra a OpenClaw y Moltbook podría lograr más para establecer estándares de responsabilidad y protección que años de discusiones sobre políticas y artículos académicos.

La época en que los programas de IA actuaban sin consecuencias legales está llegando a su fin. Ese es el resultado natural cuando la tecnología se integra en la vida cotidiana.

Según Polymarket, el cambio llegará el 28 de febrero.

Existe un punto intermedio entre dejar el dinero en el banco y arriesgarse con las criptomonedas. Empieza con este vídeo gratuito sobre finanzas descentralizadas.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO