Salah satu implementasi dari Big Data yang memadai tenar adalah Hadoop atau nama resminya Apache Hadoop. Hadoop adalah teknologi yang dibikin dari sebuah artikel atau paper. Paper ini di bawakan oleh Google untuk menggambarkan Big Data yang mereka pakai untuk menampung data mereka yang benar-benar besar. Jadi, Google menginspirasi lahirnya Hadoop. Bedanya Big Data Google tidak berbentuk open source pas Hadoop open source.
Hadoop disini disebut lebih dari semata-mata software atau perangkat lunak. Hadoop adalah sekumpulan software yang saling bekerja serupa untuk memproduksi data. Bisa disebut Hadoop adalah sebuah ekosistem yang terdiri dari software-software yang bekerja sama. Secara garis besar aku teristimewa membagi ekosistem jadi beberapa bagian:

Relevansi Big Data dengan Hadoop
Inti atau core dari Hadoop
Ini adalah software utama yang jadi basic dari ekosistem. Software ini sanggup didapat di web site site Apache Hadoop. Inti hadoop ini terdiri dari beberapa bagian yakni Hadoop Distributed File System (HDFS) dan Map Reduce. HDFS adalah tempat data-data dan file disimpan. Map Reducedisini adalah program untuk melaksanakan datamining dan pengolahan data lainnya dari file atau data yang disimpan di HDFS.
Data Mining
Bagian ini memang sanggup dikatan adalah API untuk mobilisasi Map Reduce. Bagian ini mempermudah membuat dan mobilisasi Map Reduce. Dengan demikian dapat lebih enteng membuat dan mobilisasi query. Contoh dari bagian ini adalah Apache Pig dan Apache Hive
Database NoSQL (Not Only SQL)
Bagian ini ada dikarenakan sistem map reduce kebanyakan makan pas lama (karena data yang diproses baisanya besar) dan dijalankan secara periodik dan tidak sewaktu-waktu. Bagian ini menambahkan akses data yang lebih cepat dan sanggup sewaktu-waktu. Contoh NOSQL yang baisa dipakai adalah Apache HBase dan Apache Cassandra.
Bagian pendukung lain
bagian ini padaumumnya dalah pendukung operasional Hadoop. Contohnya adalah Apache Zookeeper yang berguna untuk sesuaikan distribusi data dan pemrosesan data. Zookeeper dipakai oleh Apache HBase. Apache Flume berguna untuk sesuaikan input kedalam hadoop dari sumer data yang berbentuk streaming jika dari Twitter. Ada banyak ulang software pendukung Hadoop ini. Seperti Apache Ambari, Apache Oozie dsbnya. Tidak mutlak perlu memakai semuanya. Hanya terkait keperluan saja.
Hadoop sanggup dijalankan disatu komputer saja (single node) ataupun dalam cluster yang memuat banyak komputer (multi node). Single node kebanyakan untuk development atau training saja. Hadoop memerlukan Java untuk sanggup berjalan. Untuk sistem instalasinya termasuk memadai sederhana. Setelah file core Hadoop di download disitu ada wejangan menjalankannya. Selanjutnya sanggup dipilih mana saja komponen lain yang dibutuhkan.