Matei Zaharia et al. propuseram o framework Spark como alternativa para processar workloads que reutilizam dados através de múltiplas operações paralelas.
As opções a seguir apresentam características do framework Spark, à exceção de uma. Assinale-a.
Spark oferece suporte a dois tipos restritos de variáveis compartilhadas: broadcast e accumulators.
Spark prove três principais abstrações para a programação paralela: RDDs, operações paralelas, e operações de comunicação.
Os RDDs suportam tolerância a falhas por meio do conceito de linhagem (lineage).
Os usuários podem explicitamente armazenar RDDs em cache na memória entre um conjunto de máquinas e reutilizá-lo em várias operações paralelas.
RDDs (resilient distributed datasets) ou conjunto de dados distribuído resiliente é uma coleção de objetos de só leitura particionados em um conjunto de máquinas e pode ser reconstruído caso alguma partição for perdida.