Google publicó una propuesta de política en respuesta al llamado de Trump para un plan de acción de IA. Después de los pasos de Openai, Google solicita a la administración Trump que debilite las restricciones de derechos de autor en la capacitación de IA.
Muchos observadores ven la postura de Google como otra señal de que las empresas tecnológicas están uniendo fuerzas para dar forma a las reglas federales en torno a las tecnologías emergentes de inteligencia artificial.
Central a las recomendaciones de Google es la necesidad de debilitar las barreras de propiedad intelectual. La compañía enfatiza que el "uso justo y las excepciones mineras de texto y datos" debe reconocerse como "crítico" para la investigación continua de IA.
Google argumenta que las excepciones de minería de texto y de datos son críticas para la investigación de IA
La propuesta de política de Google sugiere que los modelos de capacitación sobre datos con derechos de autor pero disponibles públicamente deben permitirse sin fuertes limitaciones, insistiendo en que esta práctica no causa daños significativos a los titulares de derechos. Sin embargo, los críticos de este enfoque han presentado demandas contra Google para aprovechar los datos con derechos de autor sin compensación. Al momento de escribir este artículo, los tribunales de los Estados Unidos no han defi si las reglas de uso justo protegen a las empresas de IA en estos casos.
Junto con la aflojamiento de los límites de derechos de autor, el plan de Google se centra en dar forma a las políticas de exportación para chips de IA y hardware relacionado. La compañía advierte que recientemente introdujo reglas bajo la administración Biden podría afectar la competitividad de los Estados Unidos en los mercados globales de IA.
Google señala "cargas desproporcionadas" en los proveedores de computación en la nube, contrastando su posición con las perspectivas de Microsoft. En enero, Microsoft dijo que se sintió "dent" que podría cumplir con las mismas reglas que Google Now afirma que podría retrasar la innovación y las actividades comerciales.
Las reglas de exportación actuales, diseñadas para restringir el flujo de hardware de IA avanzado a las naciones desfavorecidas, incluyen excepciones para compañías selectas que requieren grupos importantes de chips de alta gama. Sin embargo, Google sigue preocupado de que estas limitaciones puedan dañar los intereses económicos a largo plazo de los Estados Unidos al obstaculizar el progreso de la IA, especialmente en una era de creciente competencia internacional. El documento de política fomenta un enfoque equilibrado que asegura la seguridad nacional al tiempo que permite a las empresas estadounidenses prosperar en el extranjero.
La propuesta solicitó al gobierno que preserve los premios de subvenciones
La propuesta también subraya la importancia de la inversión "a largo plazo y sostenida" en la investigación y el desarrollo fundamental. Citando los riesgos de reducción de costos, Google aconseja al gobierno que preserve los premios de subvenciones vitales e impulse el apoyo a la "I + D del mercado temprano", para que los científicos y organizaciones puedan acceder a los sofisticados recursos informáticos y modelos avanzados. Esta postura sigue el enfoque de la nueva administración en recalibrar las prioridades nacionales, aunque los movimientos recientes para recortar partes del presupuesto federal han preocupado a las instituciones de investigación.
El argumento de Google para una regulación más consistente a nivel federal refleja la creciente tensión entre los legisladores. Poco más de dos meses después de 2025, el volumen de proyectos de ley relacionados con la IA propuestos en los Estados Unidos se encuentra en 781, destacando el entorno de política fragmentado. En su documento, Google señala la variedad de leyes de IA a nivel estatal como prueba de que el enfoque actual está demasiado disperso. La compañía favorece un marco de seguridad y privacidad unificado para evitar que los desarrolladores y usuarios se enreden en requisitos contradictorios en múltiples estados.
Solo 66 días en 2025 y el número de facturas de inteligencia artificial pendientes en los EE. UU. Ahora supera oficialmente el total para todo 2024. 👀
2024: 743 Bills de AI Total para el año
2025: 781 Bills de AI en solo 66 días pic.twitter.com/xrypvdygr1- Adam Thierer (@adamthierer) 7 de marzo de 2025
Sobre el tema de la responsabilidad, Google sostiene que los desarrolladores de IA no siempre pueden supervisar cómo se implementan los modelos. Algunos formuladores de políticas han flotado imponer responsabilidad de uso a los desarrolladores, pero la compañía responde que, en muchos casos, el mal uso surge de actividades fuera del control directo del desarrollador.
El SB 1047 derrotado de California fue una de esas medidas que explicaba las responsabilidades para los creadores de IA, incluidas las pruebas de seguridad obligatorias y la claridad sobre cuándo se podría responsabilizar a un desarrollador por daños. La firma tecnológica se opuso a esa legislación, argumentando que los usuarios del modelo, en lugar de los creadores, a menudo están mejor ubicados para evaluar los riesgos posteriores y mantener la seguridad del sistema.
En particular, la propuesta critica mandatos de divulgación emergente como los de la próxima Ley de IA de la Unión Europea. Esta legislación requeriría que los desarrolladores brinden información detallada sobre cómo se construyen y capacitan sus modelos, así como a la orientación sobre posibles peligros o brechas de rendimiento.
Google advierte que esos requisitos pueden exponer sin darse cuenta los secretos comerciales o inspirar a los adversarios a los sistemas de IA "jailbreak". Medidas similares ya han surgido en partes de los EE. UU., Como AB 2013 de California , que obliga a los desarrolladores de IA a lanzar un resumen público de las fuentes de datos de capacitación.
Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar