Meta Platforms planea usar inteligencia artificial para evaluar la privacidad y los riesgos sociales. A lo largo de los años, la compañía ha contratado evaluadores humanos para analizar los riesgos asociados con nuevos productos y funciones, pero con esta nueva actualización, la situación cambiará.
Según conversaciones y documentos internos, Meta planea automatizar el 90% de sus evaluaciones de riesgos. Esto significa que los aspectos relacionados con actualizaciones críticas de los algoritmos de la compañía, las funciones de seguridad y los cambios en la forma en que se permite compartir contenido en las plataformas de Meta serán aprobados principalmente por un sistema respaldado por inteligencia artificial. Esto también significa que estos cambios ya no estarán sujetos a la revisión del personal encargado de analizar cómo un cambio en la plataforma podría tener efectos imprevistos o ser mal utilizado.
Meta pretende migrar a un sistema de revisión impulsado por IA
Según fuentes internas de Meta, este desarrollo se ha considerado una ventaja para los desarrolladores de productos, ya que les da tiempo suficiente para publicar actualizaciones y funciones de sus aplicaciones. Sin embargo, dentro de la empresa aún existe preocupación por la complejidad de la situación, señalando que permitir que la IA tome decisiones complejas sobre las aplicaciones de Meta podría causar daños reales. Tanto empleados actuales como antiguos comparten esta opinión.
“En la medida en que este proceso implica, funcionalmente, el lanzamiento de más productos con mayor rapidez, con un escrutinio y una oposición menos rigurosos, implica la creación de mayores riesgos”, declaró un exejecutivo de Meta que solicitó el anonimato por temor a represalias de la empresa. “Es menos probable prevenir las externalidades negativas de los cambios de producto antes de que empiecen a causar problemas en el mundo”
En un comunicado reciente, Meta mencionó que ha invertido miles de millones de dólares en la protección de la privacidad de los usuarios. La compañía también ha estado bajo la supervisión de la Comisión Federal de Comercio (FTC) desde 2012, y la agencia llegó a un acuerdo con la compañía sobre cómo gestionar la información personal de sus usuarios. Por ello, siempre ha existido la necesidad de realizar revisiones de privacidad de los productos, según empleados y ex empleados de Meta.
En su comunicado, la compañía añadió que los cambios en la revisión de riesgos de productos ayudarán a agilizar la toma de decisiones, señalando que aún emplea la experiencia humana en temas novedosos y complejos. Meta también indicó que actualmente solo se están automatizando las decisiones de bajo riesgo, pero documentos internos revisados por NPR muestran que Meta ha estado considerando automatizar las revisiones de aspectos sensibles, como la seguridad de la IA, el riesgo para los jóvenes y otra categoría conocida como integridad, responsable de aspectos como la desinformación y el contenido violento.
Con el sistema anterior, las actualizaciones de productos y funciones se enviaban primero a los evaluadores de riesgos antes de su lanzamiento público. Sin embargo, según una diapositiva que muestra el funcionamiento del nuevo proceso, los equipos de producto recibirán decisiones instantáneas tras completar un cuestionario sobre el proyecto. La decisión basada en IAdentdiversas áreas de riesgo y los requisitos que podrían abordarse. Antes del lanzamiento de dichos proyectos, el equipo de producto también verificará si se cumplen los requisitos.
Lo que destaca el nuevo sistema es que los ingenieros que desarrollan productos Meta deberán evaluar los riesgos. Según la diapositiva, en algunos casos, incluyendo nuevos riesgos o cuando un de producto necesita retroalimentación adicional, los proyectos se someterán a una revisión manual realizada por personas.
Sin embargo, Zvika Krieger, exdirector de innovación de Meta hasta 2022, ha mencionado que los gerentes de producto e ingenieros no son expertos en privacidad. "La mayoría de los gerentes de producto e ingenieros no son expertos en privacidad y ese no es el enfoque de su trabajo. No es lo que se les evalúa principalmente ni lo que se les motiva a priorizar", afirmó. También añadió que algunas de estas autoevaluaciones se han convertido en ejercicios que pasan por alto algunos riesgos importantes.

