IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des milliards de dollars gaspillés dans les startups Hadoop, il en serait de même pour Docker,
La blockchain, et l'intelligence artificielle

Le , par Bill Fassinou

464PARTAGES

15  0 
Le volume de données circulant sur Internet a commencé à devenir très massif depuis la moitié de la dernière décennie, ce qui a conduit à l’émergence et la démocratisation du Big Data. Les solutions comme Hadoop sont alors apparues et ont très vite faire leurs preuves dans l’analyse et le traitement de ces données. Hadoop est rapidement devenu le framework de prédilection pour les entreprises qui veulent se spécialiser dans le Big Data, mais aujourd’hui, les choses semblent se compliquer pour ces entreprises. MapR, l’une des plus grandes entreprises de Californie spécialiste du Big Data risque de bientôt fermer ses portes en raison de résultats catastrophiques liés à l’exploitation d’Hadoop.

Le framework Hadoop a-t-il été au cœur d’un battage publicitaire ? Certaines personnes le pensent en tout cas. En effet, Hadoop est un framework libre et open source écrit en Java destiné à faciliter la création d'applications distribuées (au niveau du stockage des données et de leur traitement) et échelonnables (scalables) permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données. Ainsi chaque nœud est constitué de machines standard regroupées en grappe. Tous les modules de Hadoop sont conçus dans l'idée fondamentale que les pannes matérielles sont fréquentes et qu'en conséquence elles doivent être gérées automatiquement par le framework.

Le framework fait partie du projet Apache sponsorisé par Apache Software Foundation. Hadoop permet la collecte, le stockage et l’analyse de gros volumes de données afin de découvrir des patterns ou d’autres informations utiles permettant de faire émerger de la valeur à partir de ces données. Les traitements peuvent être effectués en mode batch, micro batch ou en temps réel. Hadoop excelle dans le stockage et le traitement de la donnée non structurée et semi-structurée, mais il est aussi capable de gérer de la donnée structurée. Avec son émergence rapide, certains s’étaient même posés la question de savoir si l’approche analytique d’Hadoop allait bouleverser celui des Data Warehouses utilisée très largement à l’époque.


Cela n’a pas été le cas, car les deux technologies ont continué à émerger chacun de son côté, mais avec une forte publicité autour d’Hadoop. L’une des entreprises les plus remarquables à s’être illustrée avec la montée en puissance d’Hadoop est MapR. Crée en 2009, MapR Technologies est une entreprise basée à San Jose, en Californie, qui développe et vend des solutions dérivées d’Apache Hadoop. Sur son site, MapR Technologies se présente comme une entreprise qui fournit à ses clients une plateforme de données de nouvelle génération pour les domaines de l’IA et de l'analyse, permettant ainsi à ses entreprises clientes d'ajouter des analyses à leurs processus métier pour augmenter leurs revenus, réduire leurs coûts et atténuer leurs risques.

MapR aborde les complexités de données du traitement distribué à grande échelle et critique, du cloud à la périphérie, de l'analyse IoT et de la persistance des conteneurs. Aujourd’hui, l’entreprise est sur le point de fermer ses portes à cause de résultats très médiocres et de l’absence de soutiens financiers. Pourquoi ? L’on estime que l’entreprise a surestimé les capacités réelles d’Apache Hadoop. Le supposé battage publicitaire autour d’Apache Hadoop se serait donc dissipé et de nombreux investissements faits par MapR et d’autres entreprises du même domaine semblent maintenant avoir été des investissements sans lendemain.

Dans une lettre adressée mi-mai à ses employés et publiée en vertu des lois californiennes sur la notification de reconversion des travailleurs, le directeur général, John Schroeder, a imputé cette décision à des « résultats extrêmement médiocres » au cours du dernier trimestre clos. « Les raisons des résultats ne sont pas entièrement comprises, mais elles ont été en partie dues au report soudain et inattendu du calendrier de plusieurs clients pour prendre une décision d'achat », a-t-il écrit. Les clients ont-ils trouvé mieux que le framework Hadoop et son écosystème ?

Si l’entreprise n’obtenait pas une solution dans les prochaines semaines, elle pourrait être amenée à supprimer environ 122 emplois et fermer son siège social à Santa Clara dans l’État de Californie. Les résultats ont été obtenus alors que MapR était en train de négocier des fonds supplémentaires avec un partenaire pour l'instant anonyme, ce qui a mis fin aux négociations sur la nouvelle, selon la lettre. MapR Technologies a déclaré qu'il poursuivait ses options de financement, mais prévoyait de « cesser ses activités et de fermer le siège de Santa Clara » d'ici le 14 juin si aucun financement supplémentaire ne se matérialisait.

La société a quand même réussi à lever énormément de fonds d’investissement par le passé. Une première levée de fonds d’une valeur totale de 280 millions de dollars a été réalisée par l’entreprise à sa création en 2009, ce qui lui a valu une capitalisation boursière dépassant le milliard de dollars. D’autres s’en...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de darklinux
Membre extrêmement actif https://www.developpez.com
Le 01/06/2019 à 9:09
Pensez-vous que la blockchain et l'intelligence artificielle soient aussi victimes du battage médiatique ?


Le blockchain est un buzzword commercial , ce n 'est pas le cas du machine learning , qui prouve sont efficacité , mais ce ne sont pas des solutions magique pour autant . Les journalises ne font plus leur boulots et colporte des idées simples ; a la mode , ils ont utilisé le terme crypté , au lieu de chiffré pour un oui ou un non . L ' informatique , comme toute science est exigeante et la société actuelle ne le supporte plus .
3  0 
Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 01/06/2019 à 22:16
Citation Envoyé par darklinux Voir le message
Le blockchain est un buzzword commercial , ce n 'est pas le cas du machine learning
On ne parle pas de machine learning mais d'IA en général... qui est un buzzword aussi.
3  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 28/06/2019 à 14:05
J'ai du mal déjà à trouver pertinent le parallèlle entre Hadoop et la blockchain. Déjà parce que dans les grand média (ceux tout public), j'ai pas souvenir d'avoir entendu parler de Hadoop, de Big Data oui, d'IA oui, de blockchain oui, de Docker et de Hadoop, dans la presse plus spécialisée seulement.

Ensuite je me méfie quand on tape sur un outil alors que d'autres l'utilisent avec succès. En quelques années de professions, j'ai déjà vu plusieurs catastrophe sur le SQL et ORM qui ne sont pas la faute de l'outil, et vu qu'Hadoop sert aussi à gérer des données, je ne serait pas étonné qu'il s'agisse des mêmes personnes qui critiques.

Enfin il est sans doute vrai que depuis le temps que ça existe, d'autre on peut être fait mieux, ce qui ne veut pas dire qu'on à nécessairement jeter des milliards par la fenêtre, et que l'erreur ne vient pas d'Hadoop ( ou alors qu'en partie relativement limitée).

Docker, ou plutôt les conteneur léger, existent depuis déjà longtemps, et s'il perce aujourd'hui, il me semble que c'est notamment dû au cloud ou toutes les ressources sont payés à l'unité, et ça peut monter vite. Hors instancier des conteneurs plutôt que des OS, ça nécessite moins de ressources. Je n'en sais pas assez pour savoir si on peut faire des choses différentes avec Docker que les VM, mais c'est clairement plus léger et ça coûte donc moins cher en ressources (après viens les problèmes de sécurité mais il y'en a aussi avec les gestionnaires de VM).
1  0