Hadoop

Le bébé de Facebook et Yahoo disponible pour tous !

 

Hadoop est un ensemble de projets et d’outils libres de la fondation Apache utilisé pour stocker et traiter massivement des données.

Développé par Facebook et Yahoo, Hadoop a pris son envol et s’est installé au cœur de l'innovation Open Source et du Big Data.

 

Smile & Hadoop

Smile travaille depuis plusieurs années sur le développement d’un centre d’expertise Big Data: formation, certification des consultants et développeurs aux technologies Hadoop (Hortonworks Data Platform, Hortonworks Data Flow, Elastic…).

L’objectif ? Transmettre toute notre expertise et savoir-faire autour des thèmes développement, conseil et exploitation des plateformes Big Data.

Smile est aujourd’hui reconnu pour son expertise dans la mise en place et l’exploitation des plateformes, principalement au service des grands comptes.

Le sujet technique est dépassé pour se rapprocher des métiers et travailler autour de cas d’usages !

 

Caractéristiques

Version étudiée
3.0.0
Licence
Apache
Langue
Java
Année de création
2006

Hadoop est un ensemble de projets et d’outils Open Source de la fondation Apache permettant de stocker et traiter massivement des données.

Il a été développé à l’origine par Facebook et Yahoo, et est maintenant au cœur de l'innovation et de l’écosystème Big Data.


http://hadoop.apache.org/releases.html
de Hadoop

Pour plus d'informations, rendez-vous sur le guide de l'open source

Hadoop, puissance et facilité au quotidien

Framework libre et open source, Hadoop a pour principale mission de faciliter le traitement de données de façon distribué. Il existe plusieurs distributions Hadoop, parmi lesquelles Hortonworks, Cloudera et MapR.

L’écosystème Big Data est en perpétuelle évolution. De nouveaux produits/projets apparaissent sur le marché chaque mois.

Comment faire pour que les entreprises puissent conserver stabilité et fiabilité dans ce contexte ?

Ce sont justement les distributions Hadoop qui apportent cette garantie nécessaire pour sécuriser les déploiements et assurer la compatibilité des solutions entre elles.

Les dizaines de solutions de l’écosystème Hadoop ouvrent le champ des possibles :

  • Entreposage de données opérationnelles / ODS (HDFS ou Hbase) ou en entrepôt de données (Hbase et Hive)
  • Intégration et traitement parallélisés des données (YARN/Map-Reduce, Pig)
  • Requêtage et analyse des masses de données (Hive+YARN/Map-Reduce, Pig)
  • Datamining (Mahout)

En prime, des logiciels viennent s’y connecter comme Apache Pig, Apache Hive, Apache HBase, Apache Phoenix, Apache Spark, Apache ZooKeeper, Cloudera Impala, Apache Flume, Apache Sqoop, Apache oozie ou Apache Storm.

Vous avez envie d’en savoir plus ? Creusez le sujet Hadoop avec les articles du blog Smile !

Voir les nouvelles sur la technologie

Accéder aux actualités

Des formations pour apprendre à vous servir de la technologie

Accéder au catalogue de formation