Les meilleurs cours et tutoriels pour apprendre Big Data
Les meilleurs cours et tutoriels pour apprendre Big Data
Sélection des meilleurs tutoriels, exercices et cours de formation gratuits pour apprendre Big Data, du niveau débutant à expert. Vous trouverez les meilleures méthodes éducatives pour une formation agréable et complète. Vous allez découvrir des tutoriels pour tous les niveaux, allant de débutant à expert. Vous pouvez aussi trouver des extraits de livres en plus des cours pour perfectionner votre niveau et acquérir de l'expérience. N'hésitez pas à poser vos questions sur les forums d'entraide Big Data et à consulter la FAQ Hadoop.
Page lue fois.
Nombre d´auteurs : 27, nombre d´articles : 16, dernière mise à jour : 21 juin 2021
Tutoriels pour débutants et cours complets pour apprendre Big Data
-
Nous vous présentons ici un cours pour débutants sur Hadoop. Cette courte formation pourra être une bonne initiation pour apprendre les systèmes Hadoop. -
Apache Mahout pour la mise en place d'outils de recommandations, retour sur la conférence Devoxx France 2014
par Jérôme ValloireCe tutoriel se propose de faire un compte rendu de la conférence lors de Devoxx France 2014, visant à apprendre l'utilisation de la bibliothèque open source Java Apache Mahout, ainsi que les concepts se cachant derrière les termes « Machine Learning », « Classification »,« Collaborative Filtering », et « Clustering ». -
Ce premier cours introductif s'intéresse à présenter le système de fichiers HDFS (Hadoop Distributed File System) et vous aide à apprendre le modèle de programmation MapReduce. -
Retour d'expérience sur la mise en œuvre du Big Data chez PagesJaunes.fr lors de Devoxx France 2014
par David WursteisenDevoxx France, pour la deuxième année consécutive, propose un après-midi de sessions courtes avec des témoignages de DSI et CTO. Pour cette année 2014, le thème est le Big Data. Découvrez comment et pourquoi ils ont été amenés à mettre en œuvre du Big Data chez le célèbre annuaire professionnel. Ce tutoriel vous apprendra en sus plusieurs notions à travers le compte rendu de cette conférence.
Sommaire
menu
Vidéos
-
Ce cours en conférence vidéo traitera les problèmes et les solutions relatifs à Big Data. Ce tutoriel pour débutants traitera essentiellement les données parallèles, les architectures parallèles, techniques parallèles, les données MGT Cloud, SGBD NoSQL et MapReduce. Afin d'apprendre à travers cette conférence, nous vous proposons la présentation ppt.
menu
Cours et tutoriels
-
Big Data et Hadoop au secours de téraoctets de logs inexploitables
par Damien Baron, Maxime Schneider-DufeutrelleLe contenu de ce tutoriel s'appuie sur un cas très concret de l'utilisation de Hadoop. Le fait de découvrir une problématique autre que celle d'applications déployées dans le cloud par les Google, Facebook, Amazon et compagnie, était pour le moins plaisant. Avec une problématique suffisamment concrète, à laquelle chacun peut s'identifier et grâce à un propos clair, poussé mais sans fioritures, cette conférence rentre aisément dans le top 5 de nos présentations préférées lors de Devoxx France 2012. -
Nous vous présentons ici un cours pour débutants sur Hadoop. Cette courte formation pourra être une bonne initiation pour apprendre les systèmes Hadoop. -
Apache Mahout pour la mise en place d'outils de recommandations, retour sur la conférence Devoxx France 2014
par Jérôme ValloireCe tutoriel se propose de faire un compte rendu de la conférence lors de Devoxx France 2014, visant à apprendre l'utilisation de la bibliothèque open source Java Apache Mahout, ainsi que les concepts se cachant derrière les termes « Machine Learning », « Classification »,« Collaborative Filtering », et « Clustering ». -
Ce premier cours introductif s'intéresse à présenter le système de fichiers HDFS (Hadoop Distributed File System) et vous aide à apprendre le modèle de programmation MapReduce. -
Ce deuxième cours s'intéresse à l'installation et la configuration d'un cluster Hadoop simple nœud en utilisant la distribution CDH 5 fournie par Cloudera. Cette formation vous aidera à apprendre comment réaliser une telle installation dans un système virtualisé Linux. Nous n'aborderons pas dans ce tutoriel le développement de programmes MapReduce en Java. Cet aspect sera présenté dans le prochain tutoriel. Nous utiliserons donc les programmes MapReduce fournis par la distribution Hadoop. -
Installation, supervision et performance d'un cluster multinœud avec Cloudera CDH 5
par Mickael BaronCe troisième tutoriel vous apprendra d'une part l'installation et la configuration d'un cluster Apache Hadoop multinœud, et d'autre part l'exécution d'un job MapReduce dans ce même cluster. Afin de montrer l'avantage de l'architecture matérielle que supporte Apache Hadoop, nous avons comparé l'exécution d'un job MapReduce avec celle d'un simple programme Java en insistant sur l'évolution du nombre de nœuds pour Apache Hadoop et du nombre de cours CPU pour le programme Java. La distribution CDH 5 fournie par la société Cloudera a été utilisée pour les expérimentations. -
Ce tutoriel a pour objectif de nous apprendre l'installation d'un cluster Hadoop à un nœud, l'intégration de Hadoop et Eclipse, les potentielles erreurs auxquelles peuvent être confrontés les débutants, et enfin les techniques pour y faire face. -
Retour d'expérience sur la mise en œuvre du Big Data chez PagesJaunes.fr lors de Devoxx France 2014
par David WursteisenDevoxx France, pour la deuxième année consécutive, propose un après-midi de sessions courtes avec des témoignages de DSI et CTO. Pour cette année 2014, le thème est le Big Data. Découvrez comment et pourquoi ils ont été amenés à mettre en œuvre du Big Data chez le célèbre annuaire professionnel. Ce tutoriel vous apprendra en sus plusieurs notions à travers le compte rendu de cette conférence. -
Apprendre à intégrer le support de stockage de données Data Lake dans une architecture Big Data
par Jean BaylonDans ce cours, vous allez apprendre comment intégrer Data Lake dans une architecture Big Data. Le concept de Data Lake permet la réalisation d'une application Big Data dans les règles de l'art. Imaginez, vous qui nous lisez, que vous souhaitiez intégrer dans un tout cohérent votre cluster Hadoop, une base (HBase, disons), des outils pour importer des bases, des traitements conséquents, voire du Machine Learning, et bien sûr, de quoi accéder à vos résultats. Comment faire ? C'est précisément le but de ce tutoriel pour apprendre l'intégration de Data Lake. -
Transformez vos données en connaissances, puis en actions
par Sam Klaidman, CLAIRE TINKER, DENNIS GERSHOWITZVous voulez apprendre comment exploiter pleinement les capacités de l'Analytics ? Vous dirigez une PME ou êtes responsable dans une grande entreprise ? Cette formation pour débutants vous explique comment optimiser vos résultats par une meilleure analyse de vos données. -
Apprendre à faire du Machine Learning sur Spark : MLlib, théorie et concepts
par Yoann Benoit, Alban PehlipCe tutoriel a pour but de présenter, apprendre et comprendre MLlib, l'une des bibliothèques de Machine Learning distribuée de Spark. -
Ce cours vous aide à apprendre Apache Mahout, une bibliothèque d'apprentissage automatique distribuée sur la plateforme Hadoop. -
Apache Flink est un Top Level Project Apache depuis décembre 2014. Dans ce tutoriel pour débutants, nous allons comparer Spark et Flink, deux projets Apache répondant au même besoin : fournir un framework de traitements distribués en mémoire (fast data). -
Ce tutoriel identifie quelques domaines où les Big Data font déjà une différence, et quelques domaines où ils feront, bientôt, une différence. Bien entendu, l'élément clé de cette formation est de vous apprendre le potentiel énorme des Big Data qui est actuellement sous-estimé. -
Tibco Spotfire - Analyse des données structurées et non structurées pour mieux comprendre et anticiper le comportement client
par Philippe Nieuwbourg, Sébastien DemancheÀ travers ce tutoriel, vous allez apprendre l'analyse des données structurées et non structurées. Ce cours en webinar répondra à ces questions : comment analyser conjointement vos données transactionnelles et les données non structurées de votre écosystème ? Comment contextualiser vos données CRM en les rapprochant de vos données issues des réseaux sociaux - Facebook, Twitter -, du web et des e-mails ? Comment bénéficier du cloud pour votre environnement Big Data en combinant des approches de gestion de données SQL et NoSQL stockées dans Hadoop ?