구글은 트럼프 대통령의 AI 대응 계획 발표에 대한 대응으로 정책 제안서를 발표했습니다. 오픈AI의 뒤를 이어 구글은 트럼프 행정부에 AI 학습에 대한 저작권 제한을 완화해 줄 것을 요청했습니다.
많은 관찰자들은 구글의 이러한 입장을 기술 기업들이 인공지능 신기술에 대한 연방 규정을 마련하기 위해 힘을 합치고 있다는 또 다른 신호로 보고 있다.
구글의 권고 사항의 핵심은 지적 재산권 장벽을 약화시켜야 한다는 것입니다. 구글은 인공지능 연구를 지속하기 위해서는 "공정 사용 및 텍스트·데이터 마이닝 예외"를 인정하는 것이 "매우 중요하다"고 강조합니다.
구글은 텍스트 및 데이터 마이닝 예외 조항이 인공지능 연구에 매우 중요하다고 주장합니다
구글의 정책 제안은 저작권이 있지만 공개적으로 이용 가능한 데이터를 사용하여 모델을 학습시키는 것을 엄격한 제약 없이 허용해야 한다는 내용이며, 이러한 관행이 저작권자에게 중대한 피해를 주지 않는다고 주장합니다. 그러나 이러한 접근 방식에 대한 비판자들은 구글이 저작권이 있는 데이터를 무단으로 사용했다며 소송을 제기했습니다. 현재까지 미국 법원은 defi이러한 경우 공정 사용 규칙이 AI 기업을 보호하는지 여부에 대해 명확한 판결을
저작권 제한 완화와 더불어 구글의 계획은 AI 칩 및 관련 하드웨어의 수출 정책 수립에 중점을 두고 있습니다. 구글은 바이든 행정부에서 최근 도입된 규정이 글로벌 AI 시장에서 미국의 경쟁력에 영향을 미칠 수 있다고 경고합니다.
구글은 클라우드 컴퓨팅 제공업체에 "불균형적인 부담"이 가해지고 있다고 지적하며 마이크로소프트의 입장과 대조를 보였습니다. 마이크로소프트는 지난 1월, 구글이 현재 혁신과 사업 활동을 저해할 수 있다고 주장하는 동일한 규정을 준수할 수 있다고 "자신감dent"고 밝힌 바 있습니다.
현재 수출 규정은 인공지능(AI) 하드웨어의 수출을 제한하기 위해 고안되었지만, 고성능 칩을 대량으로 필요로 하는 일부 기업에 대해서는 예외를 두고 있습니다. 그러나 구글은 이러한 제한이 AI 발전을 저해하여 미국의 장기적인 경제적 이익에 해를 끼칠 수 있다고 우려하고 있으며, 특히 국제 경쟁이 심화되는 시대에는 더욱 그렇다고 지적합니다. 이 정책 보고서는 미국 기업이 해외에서 번창할 수 있도록 하면서도 국가 안보를 확보하는 균형 잡힌 접근 방식을 제안합니다.
해당 제안은 정부에 보조금 지급을 유지해 줄 것을 요청하는 내용이었다
이번 제안은 기초 연구 개발에 대한 "장기적이고 지속적인" 투자의 중요성을 강조합니다. 구글은 비용 삭감의 위험성을 지적하며, 정부에 필수적인 연구비 지원을 유지하고 "초기 시장 연구 개발"에 대한 지원을 확대하여 과학자와 연구 기관들이 정교한 컴퓨팅 자원과 고급 모델에 접근할 수 있도록 해야 한다고 권고했습니다. 이러한 입장은 새 행정부가 국가 우선순위를 재조정하는 데 초점을 맞추고 있는 가운데 나온 것이지만, 최근 연방 예산 일부를 삭감하려는 움직임은 연구 기관들의 우려를 낳고 있습니다.
구글이 연방 차원에서 보다 일관된 규제를 주장하는 것은 의원들 사이에서 고조되는 긴장감을 반영합니다. 2025년이 시작된 지 두 달 남짓 만에 미국에서 발의된 AI 관련 법안은 781건에 달하며, 이는 파편화된 정책 환경을 보여줍니다. 구글은 문서에서 주별로 다양한 AI 관련 법률이 존재한다는 점을 지적하며 현재의 접근 방식이 너무 분산되어 있다고 주장합니다. 구글은 개발자와 사용자가 여러 주에서 상충되는 요구 사항에 얽매이지 않도록 통합된 개인정보 보호 및 보안 프레임워크를 선호합니다.
2025년이 시작된 지 불과 66일 만에 미국에서 계류 중인 인공지능 관련 법안 수가 2024년 한 해 동안 계류된 법안 수를 공식적으로 넘어섰습니다. 👀
2024년: 연간 총 743건의 AI 관련 법안 발의,
2025년: 단 66일 만에 781건의 AI 관련 법안 발의 pic.twitter.com/xrYPVDYgR1— 아담 티에러(@AdamThierer) 2025년 3월 7일
책임 문제에 대해 구글은 AI 개발자가 모델 배포 방식을 항상 감독할 수는 없다고 주장합니다. 일부 정책 입안자들은 개발자에게 사용 책임을 부과해야 한다고 주장하지만, 구글은 많은 경우 오용은 개발자의 직접적인 통제 범위를 벗어난 활동에서 비롯된다고 반박합니다.
캘리포니아에서 부결된 SB 1047은 AI 개발자의 책임을 명시한 법안 중 하나로, 의무적인 안전성 테스트와 개발자가 피해 발생 시 책임을 져야 하는 시점에 대한 명확한 규정을 포함하고 있었습니다. 해당 기술 기업은 모델 개발자보다는 사용자가 후속 위험을 평가하고 시스템 안전을 유지하는 데 더 적합하다는 이유로 이 법안에 반대했습니다.
특히, 이 제안은 유럽 연합의 차기 인공지능법(AI Act)과 같은 새로운 정보 공개 의무화 움직임을 비판합니다. 이 법안은 개발자들이 모델 구축 및 학습 방식에 대한 자세한 정보는 물론, 발생 가능한 위험이나 성능 격차에 대한 지침까지 제공하도록 요구합니다.
구글은 이러한 요구 사항이 의도치 않게 영업 비밀을 노출시키거나 적대 세력이 AI 시스템을 해킹하도록 부추길 수 있다고 경고합니다. 캘리포니아주의 AB 2013 법안AI 개발자가 훈련 데이터 출처에 대한 요약 정보를 공개하도록 의무화하는 유사한 조치가 이미 미국 일부 지역에서 등장했습니다.

