Google publicó una propuesta de política en respuesta al llamado de Trump para un plan de acción de IA. Siguiendo los pasos de OpenAI, Google solicita a la administración Trump que flexibilice las restricciones de derechos de autor sobre el entrenamiento de IA.
Muchos observadores ven la postura de Google como otra señal de que las empresas tecnológicas están uniendo fuerzas para dar forma a las reglas federales en torno a las tecnologías emergentes de inteligencia artificial.
Un aspecto central de las recomendaciones de Google es la necesidad de reducir las barreras a la propiedad intelectual. La empresa enfatiza que las excepciones de uso legítimo y minería de texto y datos deben reconocerse como cruciales para la investigación continua en IA.
Google sostiene que las excepciones de minería de texto y datos son fundamentales para la investigación en IA
La propuesta de política de Google sugiere que se permita entrenar modelos con datos protegidos por derechos de autor pero de acceso público sin grandes restricciones, insistiendo en que esta práctica no causa daños significativos a los titulares de los derechos. Sin embargo, los críticos de este enfoque han presentado demandas contra Google por utilizar datos protegidos por derechos de autor sin compensación. Al momento de redactar este informe, los tribunales estadounidenses no han defidefinitivamente si las normas de uso legítimo amparan a las empresas de IA en estos casos.
Además de flexibilizar los límites de los derechos de autor, el plan de Google se centra en definir las políticas de exportación de chips de IA y hardware relacionado. La compañía advierte que las normas introducidas recientemente bajo la administración Biden podrían afectar la competitividad de Estados Unidos en los mercados globales de IA.
Google señala cargas desproporcionadas para los proveedores de computación en la nube, contrastando su postura con la perspectiva de Microsoft. En enero, Microsoft afirmó estar "dent" de poder cumplir con las mismas normas que, según Google, podrían ralentizar la innovación y las actividades comerciales.
Las normas de exportación actuales, diseñadas para restringir el flujo de hardware avanzado de IA a países desfavorecidos, incluyen excepciones para empresas selectas que requieren grandes cantidades de chips de alta gama. Sin embargo, a Google le preocupa que estas limitaciones puedan perjudicar los intereses económicos a largo plazo de Estados Unidos al obstaculizar el progreso de la IA, especialmente en una era de creciente competencia internacional. El documento de política promueve un enfoque equilibrado que garantice la seguridad nacional y permita a las empresas estadounidenses prosperar en el extranjero.
La propuesta solicitaba al gobierno preservar las subvenciones concedidas
La propuesta también subraya la importancia de una inversión sostenida y a largo plazo en investigación y desarrollo fundamentales. Ante los riesgos de la reducción de costos, Google aconseja al gobierno preservar las subvenciones vitales y aumentar el apoyo a la I+D en etapas iniciales del mercado, para que científicos y organizaciones puedan acceder a recursos informáticos sofisticados y modelos avanzados. Esta postura se enmarca en el enfoque de la nueva administración en recalibrar las prioridades nacionales, aunque las recientes medidas para recortar parte del presupuesto federal han preocupado a las instituciones de investigación.
El argumento de Google a favor de una regulación más consistente a nivel federal refleja la creciente tensión entre los legisladores. A poco más de dos meses de 2025, el volumen de proyectos de ley relacionados con la IA en Estados Unidos asciende a 781, lo que pone de relieve la fragmentación del entorno político. En su documento, Google señala la variedad de leyes estatales sobre IA como prueba de que el enfoque actual está demasiado disperso. La compañía aboga por un marco unificado de privacidad y seguridad para evitar que desarrolladores y usuarios se vean envueltos en requisitos contradictorios en varios estados.
Apenas han pasado 66 días del año 2025 y el número de proyectos de ley sobre inteligencia artificial pendientes en Estados Unidos ya supera oficialmente el total de TODO el año 2024. 👀
2024: 743 facturas de IA en total para el año
2025: 781 facturas de IA en solo 66 días pic.twitter.com/xrYPVDYgR1– Adam Thierer (@AdamThierer) 7 de marzo de 2025
En cuanto a la responsabilidad, Google sostiene que los desarrolladores de IA no siempre pueden supervisar la implementación de los modelos. Algunos legisladores han propuesto imponer responsabilidad por el uso a los desarrolladores, pero la empresa argumenta que, en muchos casos, el uso indebido se debe a actividades que escapan al control directo del desarrollador.
SB 1047 de California, que fue rechazado, era una de esas medidas que detallaba las responsabilidades de los creadores de IA, incluyendo pruebas de seguridad obligatorias y claridad sobre cuándo un desarrollador podría ser considerado responsable por los daños causados. La empresa tecnológica se opuso a esa legislación, argumentando que los usuarios de los modelos —en lugar de los creadores— suelen estar en mejor posición para evaluar los riesgos posteriores y mantener la seguridad del sistema.
Cabe destacar que la propuesta critica los mandatos de divulgación emergentes, como los de la futura Ley de IA de la Unión Europea. Esta legislación exigiría a los desarrolladores proporcionar información detallada sobre cómo se construyen y entrenan sus modelos, así como orientación sobre posibles peligros o deficiencias de rendimiento.
Google advierte que estos requisitos podrían exponer inadvertidamente secretos comerciales o inspirar a adversarios a vulnerar los sistemas de IA. Medidas similares ya han surgido en algunas partes de EE. UU., como la ley AB 2013 de California, que obliga a los desarrolladores de IA a publicar un resumen público de las fuentes de datos de entrenamiento.

