O Apache Hadoop é um framework de código aberto usado para armazenar e processar com eficiência grandes conjuntos de dados que variam em tamanho de gigabytes a petabytes. No que tange à sua constituição, o Apache Hadoop apresenta quatro módulos: HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator ), MapReduce e Hadoop Common. Os módulos YARN e MapReduce oferecem, respectivamente,
sistema otimizado para transferência de dados e plataforma de gerenciamento de recursos.
sistema de arquivos distribuídos e plataforma de gerenciamento de clusters.
modelo de computação paralela e sistema de arquivos distribuídos.
plataforma de gerenciamento de clusters e processamento paralelo/ distribuído.