거대 IT 기업 애플(Apple Inc.)이 과감한 조치를 취하며 자사 사업 전반에서 OpenAI의 AI 챗봇 ChatGPT 사용을 중단했습니다. 이러한 결정은 민감한 기업 데이터의 유출 가능성에 대한 우려가 고조되는 가운데 나온 것입니다.
애플 내부 주의
Apple은 직원들에게 배포한 지침에서 업계 경쟁자인 Microsoft가 지원하는 ChatGPT
이러한 금지 조치는 Apple이 자체적으로 AI 기술을 개발하는 기간 동안 시행되었으며, 이는 내부 혁신과 보안에 대한 집중을 강화하고 있음을 나타냅니다.
이 회사의 우려는 직원들이 AI 시스템과의 상호 작용을 통해 무심코 회사의 독점 정보를 노출시킬 가능성이 있다는 데 있습니다.
특히, 소프트웨어 코드 자동화를 돕는 GitHub의 AI 도구인 Microsoft 소유의 Copilot도 Apple의 울타리 안에서 제한을 받았습니다.
이번 내부 금지 소식은 ChatGPT가 며칠 전 애플 앱스토어에 iOS로 출시된 직후에 나온 것입니다. 많은 기대를 모았던 이 앱은 현재 미국 iPhone 및 iPad 사용자만 이용할 수 있으며, 가까운 시일 내에 다른 지역으로 서비스 범위를 확대할 계획입니다.
AI 도구 제한의 증가 추세
Apple만이 이런 입장을 취하는 것은 아닙니다. 전 세계의 주요 기업들이 ChatGPT와 같은 AI 챗봇의 내부 사용을 줄이기 시작했습니다.
예를 들어, 전자tron거대 기업인 삼성은 올해 5월 초 플랫폼에 민감한 코드를 업로드하는 불행한dent 이후, 생성적 AI 유틸리티 사용을 금지하는 메모를 직원들에게 보냈습니다.
마찬가지로 JPMorgan, Bank of America, Goldman Sachs, Citigroup 등 유명 금융 기관도 직원들이 AI 도구를 사용하는 것을 금지하는 유사한 조치를 시행했습니다.
많은 회사가 타사 AI 유틸리티를 제한하는 한편, 자체 맞춤형 애플리케이션을 개발하고 있다는 점에 주목하는 것이 중요합니다.
AI 활용의 위험과 기회
ChatGPT와 GitHub의 Copilot과 같은 AI 도구를 둘러싼 우려는 데이터 처리 방법론에서 비롯되며, 독점 코드나 기타dent데이터가 손상될 수 있는 잠재적 위험이 있습니다.
이러한 플랫폼이 마이크로소프트와 같은 경쟁사의 소유이거나 재정적 지원을 받고 있다는 사실 때문에 위험은 더욱 커집니다. 그럼에도 불구하고 많은 기업들이 워크플로에 AI의 힘을 도입하고 있습니다.
실제로 골드만삭스는 소프트웨어 코드 작성 및 테스트를 지원하기 위해 생성 AI 도구를 활용하고 있다고 밝혔습니다. 마찬가지로, 경영 컨설팅 회사 베인앤컴퍼니는 OpenAI의 생성 도구를 자사 경영 시스템에 통합할 계획이라고 밝혔습니다.
이는 AI의 이중적 특성을 잘 보여줍니다. 즉, 상당한 효율성과 비용 절감을 제공하면서도 엄격한 보안 조치가 필요하다는 것입니다.
일부 기업이 AI 도구를 사용하는 데 제한을 두는 것은 반드시 인공 지능에 대한 광범위한 우려에서 비롯된 것이 아니라, OpenAI, Google, Microsoft와 같은 타사 AI 플랫폼 제공업체가 이러한 서비스에서 공유되는 독점 데이터를 처리하는 방식에서 비롯된 것입니다.
보도에 따르면, 애플의 최근 결정은 자체 AI 도구를 만드는 쪽으로의 광범위한 전략적 변화의 일환이며, 업계의 경쟁 구도에서 주목할 만한 변화입니다.
애플, 데이터 유출 우려로 직원 대상 ChatGPT 사용 금지