Las ciencias de la tierra desempeñan un papel fundamental en nuestra sociedad al proporcionar conocimientos cruciales sobre el planeta en el que vivimos. Estas disciplinas, que incluyen la geología, la meteorología y la oceanografía, tienen un impacto significativo en diversas áreas, desde la gestión de recursos naturales hasta la prevención de desastres naturales.