Web Analytics

alphaearth-foundations

⭐ 152 stars Spanish by Brayden-Zhang

Fundaciones AlphaEarth

Una implementación en PyTorch del modelo fundamental geoespacial AlphaEarth de Google DeepMind, que genera incrustaciones de la Tierra para la monitorización y análisis ambiental global. Acompañando al artículo hay un conjunto de datos global de incrustaciones desde 2017 hasta 2024, disponible a través de Earth Engine. El objetivo de estas incrustaciones es servir como una representación geoespacial altamente general para una gran cantidad de aplicaciones posteriores, sin necesidad de reentrenamiento.

[!NOTA]
Este modelo está en desarrollo y no fue entrenado con el conjunto de datos completo, es solo un marco que proporciona una base general para la arquitectura del artículo. El código está simplificado en comparación con la implementación real de DeepMind (en JAX).

Partes clave de la metodología

Arquitectura

Codificador de Precisión Espacio-Tiempo (STP)

El codificador STP procesa datos multitemporales y multisource mediante tres operadores simultáneos:

Marco Maestro-Estudiante-Texto

Fuentes de Datos

El modelo se entrena con muchas fuentes de datos incluyendo:

Instalación

# Clone the repository
git clone https://github.com/brayden-zhang/alphaearth-foundations.git
cd alphaearth-foundations

Install dependencies

uv pip install -r requirements.txt

Install the package

uv pip install -e .
Cómo ejecutar un paso de entrenamiento:

python -m alphaearth.run_train

Cita del artículo

@misc{brown2025alphaearthfoundationsembeddingfield,
      title={AlphaEarth Foundations: An embedding field model for accurate and efficient global mapping from sparse label data}, 
      author={Christopher F. Brown and Michal R. Kazmierski and Valerie J. Pasquarella and William J. Rucklidge and Masha Samsikova and Chenhui Zhang and Evan Shelhamer and Estefania Lahera and Olivia Wiles and Simon Ilyushchenko and Noel Gorelick and Lihui Lydia Zhang and Sophia Alj and Emily Schechter and Sean Askay and Oliver Guinan and Rebecca Moore and Alexis Boukouvalas and Pushmeet Kohli},
      year={2025},
      eprint={2507.22291},
      archivePrefix={arXiv},
      primaryClass={cs.CV},
      url={https://arxiv.org/abs/2507.22291}, 
}

--- Tranlated By Open Ai Tx | Last indexed: 2025-12-01 ---