Web Analytics

alphaearth-foundations

⭐ 152 stars French by Brayden-Zhang

Fondations AlphaEarth

Une implémentation PyTorch du modèle fondamental géospatial AlphaEarth de Google DeepMind, qui génère des embeddings terrestres pour la surveillance et l’analyse environnementale globale. Accompagnant l’article, un ensemble de données global d’embeddings de 2017 à 2024, disponible via Earth Engine. L’objectif de ces embeddings est de servir de représentation géospatiale très générale pour un grand nombre d’applications en aval, sans besoin de réentraînement.

[!NOTE]
Ce modèle est un travail en cours et n’a pas été réellement entraîné sur l’ensemble complet de données, c’est juste un cadre fournissant une base générale pour l’architecture de l’article. Le code est simplifié par rapport à l’implémentation réelle de DeepMind (en JAX).

Parties clés de la méthodologie

Architecture

Encodeur Space Time Precision (STP)

L’encodeur STP traite des données multi-temporelles et multi-sources via trois opérateurs simultanés :

Cadre Enseignant-Étudiant-Texte

Sources de Données

Le modèle est entraîné sur de nombreuses sources de données, notamment :

Installation

# Clone the repository
git clone https://github.com/brayden-zhang/alphaearth-foundations.git
cd alphaearth-foundations

Install dependencies

uv pip install -r requirements.txt

Install the package

uv pip install -e .
Comment exécuter une étape d'entraînement :

python -m alphaearth.run_train

Citation de l'article

@misc{brown2025alphaearthfoundationsembeddingfield,
      title={AlphaEarth Foundations: An embedding field model for accurate and efficient global mapping from sparse label data}, 
      author={Christopher F. Brown and Michal R. Kazmierski and Valerie J. Pasquarella and William J. Rucklidge and Masha Samsikova and Chenhui Zhang and Evan Shelhamer and Estefania Lahera and Olivia Wiles and Simon Ilyushchenko and Noel Gorelick and Lihui Lydia Zhang and Sophia Alj and Emily Schechter and Sean Askay and Oliver Guinan and Rebecca Moore and Alexis Boukouvalas and Pushmeet Kohli},
      year={2025},
      eprint={2507.22291},
      archivePrefix={arXiv},
      primaryClass={cs.CV},
      url={https://arxiv.org/abs/2507.22291}, 
}

--- Tranlated By Open Ai Tx | Last indexed: 2025-12-01 ---