ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Apple planea usar fotos Look Around de Apple Maps para entrenar a la IA

PorCollins J. OkothCollins J. Okoth
3 minutos de lectura
Apple planea usar fotos Look Around de Apple Maps para entrenar a la IA
  • Apple revela que utilizaría las fotos de Apple Maps Look around para entrenar modelos que impulsen los productos de Apple.  
  • La compañía dijo que cualquier imagen capturada sería borrosa como parte de su compromiso con la privacidad. 
  •  La página de política de recopilación de imágenes de Apple Maps de la empresa enumera las regiones donde se capturarán las imágenes. 

Apple reveló que, a partir de marzo de 2025, utilizará las fotos de Apple Maps Look Around para entrenar la inteligencia artificial. La empresa tecnológica también afirmó que utilizará imágenes borrosas capturadas durante las encuestas de Apple Maps para mejorar otros servicios.

Apple reveló que usaría sus fotos de Street View Maps para entrenar modelos de IA generativa. La compañía reveló que la política entraría en vigor en marzo de 2025 y que mantendría las imágenes borrosas durante el entrenamiento de la IA.

Apple quiere usar las fotos Look Around de Apple Maps para entrenar a la IA

Apple anunció en su sitio web que, a partir de marzo de 2025, utilizará imágenes y datos recopilados durante las encuestas de Look Around para entrenar la IA. La compañía afirmó que utilizará la función Look Around de Google Maps para "entrenar modelos que impulsan los productos y servicios de Apple, incluidos modelos relacionados con el reconocimiento, la creación y la mejora de imágenes".

La compañía tecnológica afirmó que recopila imágenes y datos 3D para mejorar y optimizar Apple Maps utilizando vehículos y mochilas (para zonas exclusivas para peatones) equipados con cámaras, sensores y otros equipos, incluidos iPhones y iPads. 

Apple también reconoció que cualquier imagen que capture, publicada en la función "Mirar Alrededor", permanecerá borrosa como parte de su compromiso con la privacidad de los datos. Añadió que solo utilizará imágenes con detalles borrosos para entrenar los modelos de IA. 

La empresa afirmó que aceptaría solicitudes de quienes desearan que sus casas fueran difuminadas. Aclaró que las imágenes de las casas recopiladas durante las encuestas no estaban difuminadas por defecto. 

La página de políticas de recopilación de imágenes de Apple indica las fechas y regiones en las que planea recopilar nuevas imágenes para Look Around. Se puede acceder a la página de políticas paradentcuándo el equipo y los vehículos de la compañía visitarán su región. 

Apple ofrece actualmente funciones basadas en modelos de generación de imágenes, como Image Playground. Esta función permite a los usuarios de dispositivos compatibles con Apple Intelligence escribir una instrucción para crear una nueva imagen.

Apple Intelligence también ofrece a los usuarios la función Limpiar Fotos, donde pueden eliminar objetos de sus instantáneas favoritas. Image Wand ayuda a los usuarios a mejorar sus documentos y notas creando una imagen complementaria a partir de un boceto con el Apple Pencil. 

La app Fotos de Apple también mejoró las capacidades de reconocimiento de imágenes en dispositivos compatibles con Apple Intelligence. Esta función mejora la precisión de las búsquedas por palabras clave y permite a los usuarios crear vídeos basados ​​en la memoria mediante una solicitud.

Apple lanza la búsqueda visual mejorada en iOS 18.1 y macOS 15.1.

El año pasado, Apple lanzó un mecanismo para identificardentde referencia y lugares de interés en las imágenes de la aplicación Fotos. La compañía afirmó que este mecanismo estaría disponible para sus clientes en dispositivos iOS y macOS y estaría habilitado por defecto.  

La función generó controversia entre los usuarios, ya que el desarrollador de software Jeff Johnson expresó su preocupación por la falta de explicación de Apple sobre la tecnología. El desarrollador afirmó que estaba disponible en iOS 18.1 y macOS 15.1. Posteriormente, Apple explicó la tecnología, indicando que se trataba de una búsqueda visual mejorada en fotos que permitía a los usuarios buscar por puntos de referencia o de interés. Añadió que los dispositivos relacionaban de forma privada los lugares de las fotos con un índice global que Apple mantenía en sus servidores. La compañía añadió que utilizaba cifrado homomórfico y privacidad diferencial para ocultar las direcciones IP de los usuarios.

Explicó que el cifrado impedía que las empresas conocieran la información de las fotos. Apple añadió que los usuarios podían desactivar la búsqueda visual mejorada en cualquier momento en sus dispositivos iOS y iPadOS accediendo a la configuración.

Posteriormente, la compañía publicó un documento técnico que explicaba la tecnología, publicado el 24 de octubre, fecha del debut de la Búsqueda Visual Mejorada. En él se explicaba que el modelo local de aprendizaje automático analizaba las fotos para buscar una región de interés que pudiera representarse como un punto de referencia. La compañía indicó que, una vez que el modelo de IA encontrara una coincidencia probable, calcularía el vector que integraba una matriz de números que representaba la imagen.

Google ha utilizado imágenes de street view para entrenar modelos de IA durante años; por ejemplo, en 2017, los investigadores de la empresa utilizaron las imágenes para enseñar a un modelo de aprendizaje automático a crear fotografías de aspecto profesional.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Comparte este artículo

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitanconsultar no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamostronencarecidamente realizar una investigación independientedent un profesional cualificado antes de tomar cualquier decisión de inversión.

Collins J. Okoth

Collins J. Okoth

Collins es escritor con siete años de experiencia, especializado en criptomonedas, finanzas y tecnología. Se graduó de la Universidad de Egerton, donde estudió Ciencias Actuariales. También es Analista Financiero Certificado (CFI) por CFI (Canadá). Ha trabajado como redactor y editor en YellowScribe, Geek Computer, CoinRabbit y Cryptopolitan .

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO