El gigante tecnológico Apple Inc., en un movimiento audaz, ha detenido el uso del chatbot de IA de OpenAI, ChatGPT, en todas sus operaciones. Esta decisión se produce en medio de una creciente preocupación por el posible compromiso de los datos confidenciales de la empresa.
Precaución interna en Apple
En una directiva enviada a los empleados, Apple prohibió el uso de ChatGPT , que está respaldado por el rival de la industria Microsoft, y otras utilidades de IA comparables.
Este embargo se ha aplicado durante un período de desarrollo de la propia tecnología de inteligencia artificial de Apple, lo que indica un enfoque cada vez más intenso en la innovación y la seguridad internas.
Los temores de la empresa giran en torno a la posibilidad de que los empleados expongan inadvertidamente información de propiedad de la empresa a través de sus interacciones con estos sistemas de IA.
En particular, Copilot, propiedad de Microsoft, la herramienta de inteligencia artificial de GitHub que ayuda en la automatización del código de software, también se ha puesto bajo restricción dentro de las paredes de Apple.
Esta noticia de prohibición interna sigue de cerca al lanzamiento de ChatGPT en iOS en la tienda de aplicaciones de Apple, apenas unos días antes. Esta aplicación tan esperada actualmente está disponible para los usuarios de iPhone y iPad en los EE. UU. y tiene planes para ampliar su alcance a otras regiones en un futuro cercano.
La tendencia creciente de las restricciones de herramientas de IA
Apple no está sola en su postura, ya que las principales corporaciones de todo el mundo han comenzado a reducir el uso interno de chatbots de IA como ChatGPT.
Por ejemplo, el gigante de la tron Samsung envió un memorando a sus empleados a principios de mayo prohibiendo el uso de utilidades de IA generativa después de un desafortunado dent relacionado con la carga de código confidencial en la plataforma.
Asimismo, destacadas instituciones financieras como JPMorgan, Bank of America, Goldman Sachs y Citigroup han implementado medidas similares, prohibiendo a sus empleados el uso de estas herramientas de IA.
Es importante tener en cuenta que muchas de estas empresas, aunque restringen las utilidades de IA de terceros, están en proceso de desarrollar sus propias aplicaciones a medida.
Riesgos y oportunidades en la utilización de IA
La aprensión que rodea a las herramientas de IA como ChatGPT y Copilot de GitHub se origina en sus metodologías de manejo de datos, con riesgos potenciales de comprometer el código propietario u otros datos dent .
El riesgo aumenta por el hecho de que estas plataformas son propiedad de competidores, como Microsoft, o cuentan con el respaldo financiero de estos. A pesar de esto, muchas empresas están adoptando el poder de la IA en sus flujos de trabajo.
De hecho, Goldman Sachs ha revelado su uso de herramientas de inteligencia artificial generativa para ayudar en la escritura y prueba de código de software. De manera similar, la firma de consultoría de gestión Bain & Company reveló planes para integrar las herramientas generativas de OpenAI en sus sistemas de gestión.
Esto destaca la naturaleza dual de la IA, que ofrece eficiencias significativas y ahorros de costos, pero que requiere medidas de seguridad estrictas.
La limitación en el uso de herramientas de IA por parte de algunas corporaciones no se deriva necesariamente de preocupaciones más amplias sobre la inteligencia artificial, sino más bien de cómo los proveedores de plataformas de IA de terceros, como OpenAI, Google y Microsoft, manejan los datos propietarios compartidos en estos servicios.
Según un informe, la decisión reciente de Apple es parte de un cambio estratégico más amplio hacia la creación de sus propias herramientas de inteligencia artificial, un desarrollo a observar en el panorama competitivo de la industria.