Em vigor na versão 10.2.2, o Enterprise Data Lake usa o mecanismo Spark para atividades de alto consumo de recursos, como publicação de ativos, e para executar mapplets de regras ativas que usam a transformação Python. O uso do mecanismo Spark para atividades de alto consumo de recursos proporciona melhor desempenho e permite que uma implantação do Enterprise Data Lake no Amazon Elastic MapReduce (EMR) aproveite o escalonamento automático.