L’hiver est fini, changez vos pneus !

Aujourd’hui je vais vous parler de la neige, la glace, les voitures, les pneus et des processus agiles. Un thème adapté au printemps !

Paris, Décembre 2017, j’ai décidé de partir à l’aventure et faire du ski. Oui le ski pour moi c’est une aventure et en plus, c’était ma première fois ! Alors, plus décidé que jamais, je partais une semaine avant Noël et j’avais tout préparé, vêtements, location du matériel de ski et surtout la voiture pour affronter les routes des Alpes ! J’avais loué un bon SUV cylindré. J’avais tout prévu sauf un truc…les roues ! Figurez-vous qu’en France les pneus d’hiver ne sont pas obligatoires, de ce fait quand j’ai pris la voiture je n’avais pas en tête ce détail et Bim ! Bloqué sur un parking à côté de la route. C’était frustrant pour moi de voir les roues patiner sur la glace sans que la voiture ne bouge d’un pouce… et cela, peu importe la puissance du moteur ! j’ai même croisé un papy qui passant à côté de moi, me demandait, en rigolant, comment j’avais pu prendre la route des montagnes sans pneu d’hiver ! Jamais je ne l’oublierai, … JAMAIS !

Plus d’un an après, une idée m’est venue à l’esprit et pourquoi pas partir en Islande ? Allez hop, je ne réfléchis pas deux fois, je prends les billets, je réserve les hôtels en fonction de mon itinéraire et la voiture, bien-sûr, toujours ! Vous vous dites que je me suis transformé en blogueur et que je vais vous raconter mon voyage maintenant ? Peut être que je devrais le faire ? Mais non, ce n’est ni le lieu, ni le moment ! Retour à l’Islande, là-bas les voitures c’est une autre affaire. Équipées toutes de pneus pour la neige avec des crampons qui aident à s’accrocher à la glace, les voitures, peu importe la taille ou la puissance deviennent des bêtes de route ! Je suis passé par plusieurs tempêtes de neige, j’ai roulé sur le plus grand glacier d’Europe sans aucun problème. Et surtout ce genre d’équipement m’a permis de me concentrer sur les choses importantes, le paysage et la nature !

Fin des vacances, retour à Paris. Depuis quelques semaines, j’avais cette idée de rédiger un article qui met en évidence l’importance de l’automatisation dans les projets agiles, mais, je n’ai pas pu trouver l’image adéquate pour bien l’exprimer. En  balayant un peu mes photos de vacances, je suis tombé sur celle qui m’a donné des lumières ! C’est ça l’intérêt de l’automatisation !

Reprenons l’histoire depuis le début, celle de l’automatisation. L’automatisation est un aspect important des pratiques techniques agiles.

C’est vrai que l’automatisation n’est pas écrite noir sur blanc dans le manifeste agile, mais rappelez-vous, ce manifesto demande :

  • Que “Notre plus haute priorité est de satisfaire le client en livrant rapidement et régulièrement des fonctionnalités à grande valeur ajoutée”.
  • De “Livrer fréquemment un logiciel opérationnel avec des cycles de quelques semaines à quelques mois, avec une préférence pour les plus courts”.

Le fait qu’on nous demande de livrer fréquemment un produit et que la satisfaction du client passe forcément par une qualité irréprochable, ça sous-entend 3 choses :

  • Intégrer les fonctionnalités tout le temps -> Intégration Continue
  • Déployer les fonctionnalités tout le temps -> Déploiement Continue
  • Tester les fonctionnalités tout le temps -> Test Continue

Tout ça ne vient pas sans une lourde facture, c’est du boulot ! Et pour chaque travail, il faut des moyens et, par conséquent, élargir l’équipe n’est pas la solution, sinon on finirait par acheter le Parc des Princes au lieu d’un open space.

De surcroît, cette charge de travail augmente au fil des sprints, car les incréments se succèdent et, donc, il y’a plus de fonctionnalités à intégrer, à déployer et à tester dans le sprint qui suit par rapport à celui qui précède.

 

Mais, heureusement que les machines sont à notre service, enfin pour le moment, et que nous, les humains, pouvons leur déléguer plusieurs tâches et activités , surtout celles qui opèrent une récurrence dans le temps.

Les versions, les tests et le déploiement automatisés permettent aux développeurs d’implémenter des fonctionnalités et de re-factoriser, afin d’améliorer la qualité du code en toute confiance. L’automatisation des tâches de routine dans le processus de développement peut améliorer la qualité en réduisant la variabilité dans les processus de test et de déploiement, ce qui facilite la détection des problèmes. La fourniture de mécanismes automatisés de test, de création et de déploiement peut aider les développeurs à se concentrer sur le produit à construire, car ils n’ont pas besoin de dépenser de l’énergie pour la routine.

Il y a cette phrase qui dit : “L’agile sans l’automatisation, c’est comme conduire une voiture de sport dans la boue, vous ne pourrez pas profiter du plein potentiel et vous finirez par blâmer la voiture.”

Vous voyez l’image maintenant ? Les processus agiles sont formidables, mais une méthode à elle seule ne peut pas faire une révolution et a besoin de quelques pratiques pour la compléter et permettre à l’équipe qui l’adopte de profiter pleinement de son potentiel.

Voilà comment j’ai pu profiter des paysages en Islande, au lieu de galérer dans les virages ou au bord de la route.

Le mot de la fin, automatisez vos tâches de routine, changez vos pneus en hiver et surtout adaptez votre véhicule à la route que vous empruntez.

Nidhal Daghrir

Comment migrer d’un monolith vers des microservices Partie 1 : Introduction aux microservices

 

Convaincu que les modèles monolithiques possèdent des limites, nous avons accompagné nos clients qui les ont rencontrées dans leur migrations vers des systèmes en microservices avec succès. L’objectif de cette série d’articles est de fournir une méthodologie pour anticiper et organiser la migration du point de vue architectural, d’exploitation et organisationnel.

Cet article est le premier d’une série dédiée à la migration, les liens seront mis à jour au fur et à mesure des publications.

Beaucoup d’entreprises possèdent un système monolithique qui fonctionne. Une partie de ces entreprises est satisfaite par ce modèle et ne rencontre pas de problème particulier. Cet article s’adresse à l’autre partie qui, en grandissant, a fait grandir ses applicatifs et rencontre certains des problèmes suivants :

  • en heure de pointe, les applicatifs sont ralentis suite à la détection de problèmes de performance,
  • Les applications ne traitent plus les messages en temps réel,
  • Les services back-end sont fortement couplés au travers de connexions synchrones (effet spaghetti) et rendent difficile les tests de nouvelles features et de non régression,
  • Malgré la maturité du service informatique vis à vis du métier, la vitesse de déploiement des nouveaux services est ralentie,
  • Les équipes atteignent des tailles critiques et leur gestion est de plus en plus difficile et coûteuse,
  • Le turnover des développeurs travaillant sur l’application est de plus en plus important,
  • La montée en compétence des nouveaux entrants est très complexe.

La dernière décennie a vu se généraliser un nouveau courant qui est celui des micro-services. Beaucoup d’entreprises le voient comme un effet de mode lancé par Netflix et Amazon. Pourtant, celles qui l’ont -correctement- adoptée ont bénéficié des avantages qu’ils procurent et ne se voient pas revenir à un système classique.

En effet, l’architecture en microservices permet d’augmenter l’agilité des développements (time to market), la scalabilité du SI (absorption de la charge sans diminution du temps de réponse) et facilite l’expérimentation et le test des nouveaux services.

Il est difficile de se préparer seul lorsqu’on manque d’expérience. Comme l’a dit un célèbre poète:

“Tout le monde a un plan jusqu’au premier coup-de-poing dans la face”.  Mike Tyson

Cet article a pour vocation de fournir une méthodologie pour la migration depuis un système monolithique vers des microservices.

Mais d’abord, qu’est ce que le microservice ?

“Quand plusieurs éléments travaillent ensemble pour un objectif précis, de grands exploits peuvent être accomplis. On rapporte qu’un lionceau succomba sous un rassemblement de fourmis.”  Saskya Pandita

Sasky Pandita l’a bien compris, on est plus fort en travaillant en groupe. Pour définir un microservice, on utilisera le même principe que celui d’Unix.
Ainsi, un microservice est caractérisé par : “Do one thing and do it well” (Linus Torvald). Il faut partir d’un besoin métier, l’isoler des autres et préciser le besoin d’un point de vue fonctionnel. Les méthodologies de Domaine Driven Design peuvent aider à effectuer cela.

Techniquement, voici un exemple d’un microservice type avec deux types d’entrée/sortie (API REST et API d’une message queue) :

Plus généralement, un microservice est composé:

  • D’une logique métier, un service qui est effectué, comme par exemple, la réalisation des factures. Cette partie, la plus importante, représente le cœur du traitement de la donnée.
  • De sa propre base de donnée indépendante des autres services.
  • D’une API lui permettant de communiquer avec les autres microservices.Les APIs sont des interfaces agnostiques du langage de programmation utilisé.
    Dans l’exemple, on dispose d’une API :
    –  permettant de requêter une queue de messages (Kafka par exemple) pour recevoir les données de taxation.
    –  pour exposer les informations en base de données aux services extérieurs
    –  pour communiquer ces informations en temps réel via la queue de sortie aux services externes qui en ont besoin pour créer/modifier leurs propres données (SAV par exemple).

Une fourmi ne peut rien faire seule, un module unix non plus, et de la même manière, un microservice perd de sa valeur seul dans un système.


Comment interagissent les microservices ?

Les microservices travaillent ensemble pour délivrer des informations pertinentes au client. Un système composé de plusieurs microservices, avec les bons outils d’exploitation (Containerisation et orchestration), pourra réaliser des merveilles de réactivité attendues.

C’est dans la collaboration que la majorité des challenges commencent. Parmi les plus récurrents :

  • Le déploiement des applications : Celui-ci doit se faire de manière automatique, permettre de se mettre à l’échelle lorsque la charge augmente ou diminue pour un microservice. Le processus de déploiement doit pouvoir reconstruire à la volée l’ensemble du système.
  • La découverte des services (Service Discovery): Pour fonctionner ensemble, chaque microservice doit savoir à qui s’adresser. Les microservices ne sont pas assignés à une adresse fixe comme une IP ou un Host de manière statique. Les orchestrateurs comme DC/OS ou Kubernetes permettent de gérer ce type de problème.
  • Communication avec le Legacy : On ne passe pas d’un monolith à un système de microservices d’un coup, et on doit pouvoir se connecter au legacy sans y être fortement dépendant. L’adhérence avec le legacy doit se faire de manière asynchrone afin de limiter les échecs en cascade.
    Et bien d’autres challenges.

 

Maintenant que nous voulons franchir le pas, comment réussir cette migration ? Dans le prochain article de cette série, nous allons voir la manière dont les microservices communiquent , et rentrerons dans les détails des méthodologies de déploiement.

 

Ismail Hrimech & Younes Azoum

Réorganiser, améliorer, sans tout bousculer !

A travers un projet réalisé chez un de nos clients, leader dans le secteur de l’énergie, nous souhaitions vous partager l’implémentation des solutions PLM Analytics et Exalead par nos consultants afin de répondre à divers enjeux demandés par notre client.


Du Cadrage à la mise en place du projet

Après une première phase de cadrage des besoins, nous avons décidé de mettre en place la solution PLM (Product Life-cycle Management), permettant l’analyse, la modélisation, la traçabilité des modifications et le suivi le cycle de vie complet d’un produit, équipement ou installation, de sa conception à son retrait.

A travers cette nouvelle gestion de la donnée, on remarque que les tâches d’exploitation, de maintenance et de démantèlement nécessitent l’accès à un ensemble d’informations avec des origines, formats et historiques très divers (schémas, plans, modèles, maquettes 3D, notices, historique d’interventions, documentation, réglementation …).


Intégrer un moteur de recherche pour améliorer les performances

Dans un second temps, l’intégration d’Exalead, moteur de recherche et de producteur de rapports analytiques nous a donc semblé évident. Ce moteur de recherche ou SBA (Search Based Application) est une application web permettant de collecter, consolider et restituer des données extraites à partir de l’écosystème d’applications du client (Legacy).
On peut, d’ailleurs, distinguer trois différentes étapes dans le traitement des données communes à tous les moteurs de recherche :

  1. La collecte automatisée des informations | Crawling.
  2. L’indexation automatisée des informations | Indexation.
  3. Le classement automatisé des informations | Ranking.

Dans le cas précis de notre projet, le client avait des contraintes couvrant les domaines essentiels :

  • Les coûts atteignent 60 % du coût global du projet
  • Les équipes sont peu connectées à l’Ingénierie
  • Les Systèmes d’information sont peu intégrés, dispersés et d’âges variés
  • La mise en place d’un PLM de « bout en bout » est long à réaliser
  • La capitalisation de l’historique et du savoir est un atout majeur


Répondre aux problématiques sans changer les organisations

En connectant Exalead à l’application PLM ainsi qu’au reste des applications du Legacy, Mind7 Consulting, partenaire et intégrateur de la solution Exalead de Dassault Systèmes, souhaitait répondre aux problématiques de manière efficace sans avoir à perturber ou changer l’organisation mise en place dans les équipes, tout en améliorant leur performance, sécurisant leurs résultats et la collecte des informations :

Notre objectif étant de créer une interface dynamique qui puisse répondre à 4 critères fondamentaux

  • Facilité d’accès à la donnée / Gain de temps
  • Consolidation de la donnée / Gain de temps
  • Mise en cohérence de la donnée / Gain en efficacité
  • Complétude de la donnée / Réduction des erreurs

Le cahier des charges client à respecter était bien précis afin de garantir une réelle création de valeur pour les différentes populations métier ciblées :

  • Digitalisation des processus client,
  • Amélioration de la connaissance de l’état TQC (Tel Que Construit)
  • Amélioration de la maîtrise des configurations du parc nucléaire
  • Développement d’un langage commun Ingénierie / Exploitants / Fournisseurs
  • Gestion des données structurantes (TQC et Conception) dans le temps (niveau de maturité et applicabilité)
  • Mise à disposition des données de référence de l’ingénierie et compatibilité avec les outils existants utilisés en production


En conclusion

Ainsi, après une phase de préparation et cadrage animée par des ateliers d’échanges et de maquettage des besoins, sur 1 à 2 mois, nous avons pu déployer le projet avec des temps de création, démos et tests. Au bout de 4 mois, une première version du produit a été présenté et approuvé par le client.

Yohan L.

Sans Google, on fait comment ?!?  (Et sans se ruiner !)


En tant qu’ancien consultant chez un éditeur de logiciels, j’ai un gout très prononcé pour la mise en œuvre de solutions sur étagère qui allient rapidité de mise en œuvre et apport, à coup sûr, d’expertise fonctionnelle. Dans ces quelques lignes, je vous livrerai mon expérience sur la formation sans utiliser Google. Un défi !

Problématique ou cas en question ?

Le principal challenge pour une société de conseil sur ces sujets est la montée en compétence et en expertise de ses consultants. Internet, qui est pourtant une des sources de connaissances majoritaires de notre époque, est souvent limitée, et restreinte à quelques articles et/ou blogs de survol ou d’introduction, on n’y trouve pas de forum « stack overflow ».

Au sein de Mind7 Consulting, je mets en œuvre plusieurs approches afin de m’assurer que notre expertise reste à son meilleur niveau sur la durée, et qu’elle soit transmise aux nouveaux arrivants de manière garantie.

L’accompagnement humain est la clé

Une de mes plus grandes satisfactions dans mon métier de consultant est l’échange que je peux avoir avec mes collègues ou clients concernant des problématiques techniques et des challenges à résoudre. Ce sont des sources de progrès personnel, et d’enrichissement de mon expertise. Aujourd’hui, je reproduis ce schéma chez Mind7, dans les deux sens.

D’un côté, chaque nouvel arrivant a la possibilité de travailler avec un mentor, dont le rôle est de garantir la montée en compétence et donc, d’assurer la démultiplication des possibilités pour Mind7 d’aider ses clients, mais aussi dans le but de déléguer. Ceci donne aux mentors le temps par ailleurs de s’investir sur de nouveaux sujets. Le cycle vertueux de l’expertise est ainsi maintenu.

Cette possibilité n’est pas sans concession et il faut accepter de perdre sur le court terme du temps de production ou de facturation, pour de toute façon le regagner avec des intérêts sur le moyen et le long terme. Voyez ceci comme un investissement très rentable !

De l’autre, je suis très attentif à maintenir une relation étroite avec les experts de nos partenaires éditeurs, dans une relation gagnant – gagnant. J’appelle ceci un partage d’expertise. De manière régulière, nous rencontrons les consultants qui font le succès de l’éditeur chez ses propres clients sur des discussions informelles autour d’une problématique.

Le défi de la capitalisation

Je travaille aussi pour trouver une méthode où capitaliser est naturel, efficace et utile. Faire une documentation à la fin d’un projet ne fonctionne pas. Et en plus, qui a le temps de le faire ?

Les sources logicielles sont souvent « non ouvertes », ce qui est une particularité en plus à prendre en compte et en rapport avec les problématiques open source. L’impact direct sur le travail est un dépôt de code (Git) tout de suite moins « naturel » et la documentation habituelle qui en découle normalement, plus aussi évidente.

Dans ce contexte, il n’y a pas de solution miracle, ainsi, nous avons mis en place des « cas d’utilisation ». Le principe est simple, il s’agit d’identifier une situation et de décrire sa mise en œuvre, par exemple, « auditer la performance de la chaîne d’indexation » ou bien « insérer une image dynamique dans le rapport hebdomadaire ». Ces fiches pratiques permettent normalement d’aborder plusieurs sujets techniques et fonctionnels différents et, donc, rendre la capitalisation plus riche.

La documentation produit en question

Un dernier point important est de ne pas sous-estimer la documentation éditeur. C’est souvent une source d’information très pertinente. Par contre, il est essentiel de connaitre un minimum le sujet avant de se plonger dans cette source d’information qui, de prime abord, peut paraître un peu rebutante.
Trop souvent, j’ai entendu « il n’y a rien dans la doc ! », alors qu’il y a tout, mais que c’est juste un fastidieux de s’y retrouver. Pour éviter de s’arracher les cheveux, mon conseil le plus avisé est celui d’avoir une bonne maîtrise de la barre de recherche par mot clé.

Alexis Bourdeau

 

Pourquoi on aime la solution Exalead de Dassault Systèmes ?

En tant qu’experts du « Search » (c’est-à-dire des moteurs de recherche), on nous demande souvent de comparer les différents moteurs de recherche. En fonction du contexte, nous indiquons alors celui qui nous semble le plus adapté.

Il y a en effet de nombreux acteurs sur le marché et chacun a sa propre vision et offre. Ainsi le Magic Quadrant de Gartner présente pêle-mêle Sinequa, Coveo, Exalead, HP, IBM… Par contre il ne cite pas ElasticSearch ou Algolia, qui sont pourtant des solutions extrêmement utilisées.

Depuis plusieurs années, nous travaillons notamment sur Exalead et sur ElasticSearch.

Alors, autant vous partager quelques retours d’expérience. A travers notre avis sur ces solutions, vous verrez qu’elles ont un fort apport aux utilisateurs métier en entreprise.

Ici, on s’intéressera plus particulièrement à Exalead mis en oeuvre par Mind7 Consulting, partenaire intégrateur de Dassault Systèmes, depuis 2012.

En effet, nous sommes Partenaires Intégrateurs et Conseil de cette solution. Nous avons eu l’opportunité de la mettre en œuvre dans des contextes business variés (Retail, Assurance, secteur Public, etc…)… et d’adresser ainsi des cas d’utilisations encore plus variés.

Présentation d’Exalead

Remarque : malgré le nom de ses déclinaisons, Exalead n’est pas une solution Saas . Elle n’est disponible qu’en « on premise ».

Il faut savoir que la solution Exalead de Dassault Systèmes se décline sous plusieurs verticales et marques différentes :

  • CloudView qui présente la technologie « Core » d’Exalead.
  • OneCall : solution prépackagée qui permet de constituer une vue à 360° de chaque client et prospect, travailler le portefeuille client pour proposer les meilleurs produits.
  • PLM Analytics : solution prépackagée qui s’intègre notamment avec les outils PLM de Dassault Systèmes (Catia, Enovia notamment) pour valoriser les données et les projets de conception.
  • OnePart : solution prépackagée qui permet de retrouver les pièces et les équipements notamment grâce à de la recherche par similarité (y compris dans les plans 3D).

On le voit bien avec ces descriptions succinctes. On est loin du « simple » moteur de recherche. Et c’est là que réside une vraie innovation d’Exalead.
L’idée est d’utiliser les technologies de type moteur de recherche, pour créer des applications métier qui répondent aux besoins concrets des opérationnels sur le terrain.

Mais un moteur de recherche, c’est quoi ?

Un moteur de recherche est une application qui récupère de l’information des systèmes sources (d’autres applications) et la stocke dans son propre référentiel (“l’index”).
Ainsi, l’information est restituée plus rapidement (parce que vous cherchez sur son index plutôt que sur l’ensemble des sources).

Par exemple, si vous pensez aux recherches web (type Google) lorsque vous cherchez une informations sur internet, la comparaison est évidente.
En amont de votre recherche, le moteur a scanné (“crawlé” dans le jargon) les différents sites pour récupérer l’information des pages existantes.
Puis, il l’a stocké dans son index. Ainsi, lorsque vous cherchez, instantanément une réponse apparaît. Et pour cause! Cet index a été spécialement conçu pour optimiser la performance à la recherche. En plus de cela, des traitements particuliers sont activables sur la donnée ainsi collectée. On pourra assurer la catégorisation, le filtrage mais aussi des traitements sémantiques (synonymes, glossaire, correction orthographique, suggestions…). Tout cela permet d’obtenir des réponses pertinentes et triées. Y compris sur d’énormes volumes de données parce que par définition, les technologies ont été conçues pour stocker… toute l’info du Web !
Vous avez dit Big Data ? Oui… C’en est!

Et,pourquoi c’est plus que cela ?

Mise en oeuvre

La donnée stockée dans l’index a été “traitée”. Parfois elle est nettoyée ou enrichie avant d’être enregistrée. Donc, on pourra en profiter pour mettre de « l’intelligence » dans cette indexation. Par exemple, catégoriser et répertorier des documents en fonction de leur contenu. On encore, les identifier et/ou les lier entre eux en fonction des informations retenues. Même sur des informations non structurées (du texte libre et des commentaires, plutôt que des chiffres qui seraient plus faciles à interpréter). A ce titre, les moteurs de recherche sont plus souples et plus faciles à mettre en œuvre que des outils de type Business Intelligence. En effet, même si la règle du « Garbage In – Gabage Out » reste valable, les moteurs de recherche savent très facilement traiter de l’information disparate et non encore normalisée. On a donc moins d’exigence de Gouvernance en amont.

Utilisation de la donnée

De plus, une fois que l’information est stockée dans l’index, on peut l’exploiter et la visualiser de toutes les façons imaginables :

  • listes de résultats (pensez encore à une recherche à la Google sur internet)
  • tableaux de bord (Analytics, graphiques, indicateurs), …

Enfin, ces données seront utilisées pour les intégrer dans les processus opérationnels « métier ». C’est-à-dire activer des modules, outils ou développements complémentaires.

Cas d’utilisation

Les exemples d’utilisation sont divers comme :

  • Recommander une action en fonction du contexte de tel ou tel client (concept de « next best action »),
  • Plugger des algorithmes de type Machine Learning pour analyser les données centralisées, et, ainsi déclencher des tâches et des actes de gestion,
  • Compléter la donnée collectée et ajouter de l’information à la volée…

De ce fait, la technologie du Moteur de recherche s’intègre bien dans les problématiques de nombreux clients. Elle permet de collecter et valoriser la donnée disponible (en interne ou en externe), en grande quantité. Avec des besoins de rafraîchissement quasi temps réel, ils mettent à disposition de leurs opérationnels des outils qui leur simplifient le quotidien.

C’est pour cela que chez Mind7 Consulting, on s’intéresse à ces concepts depuis longtemps. Nous pensons même que ces solutions ont encore de beaux jours devant elles ! D’autant qu’elles sont extrêmement rapides à mettre en œuvre (2 à 3 mois en moyenne seulement).

 

…Et, c’est là qu’une solution comme Exalead apporte un plus !

Une Solution Tout-en-Un Intégrée

Pour en revenir à notre expérience en tant qu’intégrateur d’Exalead de Dassault Systèmes, l’avantage de cette solution par rapport, notamment, à une solution Open Source est qu’elle est complète et packagée. En effet, chacune des solutions Exalead indiquées plus haut, couvre :

  • des connecteurs standards pour gérer, paramétrer l’accès aux données et les traitements d’indexation (sémantique, enrichissement, consolidation, nettoyage…),
  • un module (la « mashup ») permettant de créer l’interface utilisateur par drag & drop, à partir des widgets mis à disposition par Exalead,
  • des consoles d’administration fonctionnelle et technique donnant les moyens de superviser, gérer, déployer les applications, ainsi que les règles métier (ex dictionnaires de synonymes).

et ses avantages

Ainsi, on peut constater qu’Exalead a plusieurs avantages non négligeables :

  • pouvoir construire une application très rapidement (d’autant que plusieurs verticales sont disponibles en fonction du cas d’utilisation),
  • adresser des cas d’utilisation et des contextes très variés,
  • administrer au quotidien avec une équipe minimale !

Quand on met tout cela bout à bout, le ticket d’entrée se révèle bien plus intéressant que certaines autres solutions (y compris open source) nécessitant des équipes beaucoup plus conséquentes.

 

Andrea Zerial