mercredi 7 octobre 2015

Alfresco ECM - magique ! quelques commandes pour tester l'Upload de documents depuis z/os

Alfresco ECM - magique !

mes débuts avec CURL pour tester l'API Rest en vue de Upload de documents sur le site de test dans le cloud

il faut  un login pour récupérer un ticlet (alf_ticket)

curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/login?pw=Klesia2015&u=kls-jean"

réponse:
TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237

(re)validation du ticket si on est pas sûr du time out
curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/login/ticket/TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237?alf_ticket=TICKET_2d203be6b0c
6cface6c2af60872a3f39fa8e8237"

TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237


signature du serveur (juste pour savoir s'il est là !!)

curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/server"


 Liste des sites
 https://365a1c.trial.alfresco.com/alfresco/service/api/admin-sites?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237
  idem
 https://365a1c.trial.alfresco.com/alfresco/service/api/sites?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237

 liste d'un site
 https://365a1c.trial.alfresco.com/alfresco/service/api/sites/sitedetestklesia?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237

 {
        "url": "\/alfresco\/service\/api\/sites\/sitedetestklesia",
        "sitePreset": "site-dashboard",
        "shortName": "sitedetestklesia",
        "title": "SiteDeTestKlesia",
        "description": "site pour test Klesia",
        "node": "\/alfresco\/service\/api\/node\/workspace\/SpacesStore\/88125f29-57ff-492f-acd7-d2afffde0a57",
        "tagScope": "\/alfresco\/service\/api\/tagscopes\/workspace\/SpacesStore\/88125f29-57ff-492f-acd7-d2afffde0a57",
        "siteManagers":
        [
                        "kls-jean",
                        "bdipoi@club-internet.fr",
                        "kls-nathalie",
                        "kls-denis"
        ],
                "isMemberOfGroup": false,
        "isPublic": true,
        "visibility": "PUBLIC"
}



 upload document
curl -k --proxy http://10.180.180.248:80  --form filedata=@SL12.S269.AD17076.txt --form siteid=sitedetestklesia --form containerid=documentLibrary
--form uploaddirectory=TestjRO "https://365a1c.trial.alfresco.com/alfresco/service/api/upload?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237"
{
   "nodeRef": "workspace://SpacesStore/1c1a32dc-d60b-4a7a-a3a6-408dccca0488",
   "fileName": "SL12.S269.AD17076.txt",
   "status":
   {
      "code": 200,
      "name": "OK",
      "description": "File uploaded successfully"
   }
}

curl -k --proxy http://10.180.180.248:80  --form filedata=@SL12.S269.AD17076.txt --form filename=Test_de_tags --form siteid=sitedetestklesia --form containerid=documentLibrary --form uploa
ddirectory=TestjRO "https://365a1c.trial.alfresco.com/alfresco/service/api/upload?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237"
{
   "nodeRef": "workspace://SpacesStore/7ed531b5-f8cd-4aa3-aefd-5480d50c1252",
   "fileName": "Test_de_tags",
   "status":
   {
      "code": 200,
      "name": "OK",
      "description": "File uploaded successfully"
   }
}

liste all tags
curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/tags/workspace/SpacesStore?alf_ticket=TICKET_2d203be6b0c6cface6c2af60872a3f39fa8e8237"

[
      "code infog",
      "date de traitement"
]

upload
curl -k --proxy http://10.180.180.248:80  --form filedata=@SL12.S269.AD17076.txt --form filename=Test_de_tags.txt --form siteid=sitedetestklesia --form containerid=documentLibrary --form uploaddirectory=TestjRO "https://365a1c.trial.alfresco.com/alfresco/service/api/upload?alf_ticket=TICKET_eff62d08eaa8ae1e1a70e9622f1bd8edaa53450b"
{
   "nodeRef": "workspace://SpacesStore/5516a7b1-5370-4604-b181-28a04362730c",
   "fileName": "Test_de_tags.txt",
   "status":
   {
      "code": 200,
      "name": "OK",
      "description": "File uploaded successfully"
   }
}
Add Tag (marche pas)
curl -k --proxy http://10.180.180.248:80 --form essai_de_tag "https://365a1c.trial.alfresco.com/alfresco/service/api/tags/workspace/SpacesStore/5516a7b1-5370-4604-b181-28a04362730c/tags?alf_ticket=TICKET_eff62d08eaa8ae1e1a70e9622f1bd8edaa53450b"

Get nodes for tag
curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/tags/workspace/SpacesStore/essaidetag/nodes?alf_ticket=TICKET_0d4bb8e4eaf0a8508bcba0237a55
5c3cd1e1cdb6"
[
                {
                        "nodeRef" : "workspace:\/\/SpacesStore\/94d684e1-7ccb-4fde-91c5-c90c3c2c8c9d",
                        "url" : "\/alfresco\/service\/api\/node\/workspace\/SpacesStore\/94d684e1-7ccb-4fde-91c5-c90c3c2c8c9d"
                }
]

create new tag

get authentication
curl -k --proxy http://10.180.180.248:80  "https://365a1c.trial.alfresco.com/alfresco/service/api/authentication?alf_ticket=TICKET_d281d76427ae7d105ae9e524c0e225fdaa6fd7d0
{
        "data":
        {
                "creationAllowed": true
        }
}

 get nodes tags
curl -k --proxy http://10.180.180.248:80 "https://365a1c.trial.alfresco.com/alfresco/service/api/node/workspace/SpacesStore/94d684e1-7ccb-4fde-91c5-c90c3c2c8c9d/tags?alf_ticket=TICKET_d281
d76427ae7d105ae9e524c0e225fdaa6fd7d0
[
                        "essaidetag"
]

dimanche 29 mars 2015

How to become a data-centric company

The mainstream adoption of big data is just now starting. Now, it’s time to figure out what to do with all this data – and how to exploit it for competitive advantage.
Ultimately, companies use data – big or not – to solve business problems. The data-centric company, however, doesn’t just treat data as an asset – it treats data as gold – and they’re willing to pay for it, too. In fact, many data-centric companies don’t even look like data-centric companies at first glance, rather they masquerade as “service providers” – like Google’s search engine or Amazon’s online retail platform –, providing services with the end goal of simply collecting data. In fact, Amazon pioneered this strategy of collecting and exploiting data by layering user data on top of open ISBN data to create new value. Other companies design loyalty programs to drive data collection, like, for example, customer rewards programs at grocery stores or gas stations. By offering discounts on seemingly random products or savings at the pump, they are literally paying customers to provide data through enrolling in their user loyalty programs. (Conversely, you could look at opting-out – or, not signing up for the saver card – as incurring a privacy tax: you’re paying full price to keep your data to yourself.)
It’s a bold statement to say that data-centric equates to competitive advantage. However, there are competitive advantages earned by data-centric companies that have truly revolutionized the business intelligence (BI) industry.
Here’s how they do it:
They are Data Harvesters
Data-centric companies collect and harvest data from everywhere. One of the “old ways” of thinking in BI was to ask what data was already available, and how to integrate the data to define metrics or map it to an already pre-defined metric. Data-centric companies tackle that question another way – instead of figuring out how to use what data is already available to answer metrics, they begin with first addressing the business problem that needs to be solved, then imagine the data needed – and then go out and find it or create it through new apps (like mobile) or collection agents.
Data-centric companies leverage external public and purchased data, big data, … – whatever data through whatever means necessary, including internal sources, mobile apps, wearables, sensors, and so on. Even a weather app can bring in untapped value. Being a data harvester is simply the willingness to collect every piece of data about your customers and people any way you can in order to gain insights about existing customers and relate that to future customers.
They Live an Analytic Culture
Data-centric companies create (and live and breathe) within an analytic culture – and they make it look easy, too. This analytic culture can be broken down into three categories.
  • Insight: mining, clustering, and using segmentation to understand customers, their networks, and – more important – their influence --, as well as product insights.
  • Optimization: of business functions, processes, and models through the use of analytics.
  • Innovation: Discover new and disruptive business models that stay true to company brand but provide pathways to foster the evolution and growth of customer base.
One of the mainstays of the data-centric culture is to drop biases. Look for the data, and derive correlations from there. Or, ask not what you can do for your data, but what your data can do for you.
They Think Long Term
Data-centric companies find way to perpetuate lifetime value through the acquisition of new, multi-generational customers. Remember: the data you have now only shows a current snapshot of your environment. Thinking data-centric is thinking long-term. It’s looking for patterns in the data to see where your company is, sure, but more important to look at where it’s going, and then developing a plan to work towards getting there.
To data-centric companies, thinking long-term means thinking about customer engagement. They maintain a high brand-to-customer focus, where the brand itself is largely defined by the customer’s sentiment and influence. For the customer, the relationship to the brand is a connection assembled through experience. This, for example, is why I buy books from Amazon (for practicality and selection), but I spend weekend days curled up at Barnes and Nobles flipping through stacks of books and sipping coffee – it’s an experience.
They Take Action
Finally, data-centric companies act on analytics. Data without action holds no value on its own: it’s the action that drives the business value. Acting on analytics isn’t a one-time thing either, but instead a continuous process of experimentation and improvement. Improving analytic models is as important as the data underneath is continually changing, too.
For a quick example, refer back to my earlier comment on the untapped value of the weather app. At a recent client event in Reno, Nevada we asked attendees how many weather apps they had on their smartphones. Many – at least a quarter of the room – noted they had more than one. The rub: having multiple analytic engines drives competition, and competition drives improvement.
Lastly: Don’t Forget About Mobile
Becoming a data-centric company requires an inevitable cultural change to achieve competitive advantage. Through competing on analytic abilities, companies can build deeper understandings of customers and relationships. Think about the data you collect today – and then realize that the activity you capture today (probably) isn’t enough. Being data-centric means going the extra mile in the way you interact with your data.
And, think mobile – and think about mobility as a way to instrument customers, too. Today, through mobile apps, customer’s “public personas” are available through APIs. And, mobile is a “me”-phenomenon: it’s a direct line to a customer’s most selfish desires – what they like, what they hate, what they want, and what they’re willing to say about it all. This social data tells us exactly who our customers are, and the best ways to make them happy. Remember, too, that mobile is a two-way phenomenon: companies think about pushing information and services to customers, but they also need to think (selfishly) about how to pull data back and learn from customer activity.

vendredi 21 février 2014

Gérez vos sources z/OS sur SVN (Subversion)


SVN est un des gestionnaires de sources les plus répandus dans le monde OPEN
Vous pouvez désormais partager le même gestionnaire de sources pour toutes vos plateformes OPEN (Windows, Linux etc..) et mainframe z/OS
Vous pouvez maintenant mettre en place une gestion de vos sources (Cobol, PL1, etc.. ) sous ISPF, avec intégration de vos procédures de compilation, linkedit , Bind  pour DB2, CICS, IMS etc...

Toutes les fonctionnalités attendues d'un gestionnaire de sources sur mainframe y sont:

  1. gestion des sources (checkout, update, commit) de type programmes, copy dans tous les langages supportés sur le Z
  2. gestion des environnements en couloirs, filières
  3. développements parallèles sur des branches 
  4. préparation de packages de livraison et suivi de leur exécution
  5. historiques des livraisons sur tous vos environnements
  6. comparaison de différentes versions de sources 
  7. merge de sources
  8. gestion des conflits, verrouillages
  9. visibilité des repository du Z depuis les autres interfaces de SVN (ViewVC etc..)
  10. sécurité, identification intégrée au Z
  11. intégration de vos propres procédures de compilation, link, bind, analyse qualité etc...
  12. administration du dépôt SVN, des branches et des règles de livraison sous ISPF

mardi 26 juin 2012

Audit & Optimisation de production informatique

Vous cherchez à optimiser l'utilisation de vos moyens centraux ?
Faire des économies sur la facture matériel et licences de votre production informatique ? Lisser la charge CPU dans la journée, la semaine, le mois etc... 
Réduire la puissance allouée, réduire une fenêtre batch pur pour augmenter la disponibilité de vos SI aux utilisateurs
Améliorer le parallélisme de vos travaux batch et TP ?
Migrer des outils d'ordonnancement vers un référentiel centralisé, avoir un tableau de bord unique des dépendances entre vos chaines batch centrales et Open 

C'est notre métier et c'est une expertise qui pourrait devenir précieuse à vous aussi

Certains l'ont déjà fait avec nous. En savoir plus ? contactez nous 06 66 96 23 36 - jean.rollet@gmail.com





















mardi 24 janvier 2012

Processus métiers et Architecture d'Entreprise, de nouvelles opportunités

Le monde informatique des premières générations fut orienté vers la mise au point d'outils informatiques au service des hommes et des entreprises. 
Elle était destinée à assister le traitement des informations et des processus métier sous la main et l'initiative humaine. 

Dans les années 2000 sont apparus les premiers systèmes de gestion des flux ou workflow assistés par une vague de dématérialisation des supports de l'information (GED, Gestion de contenu, systèmes d'indexation etc..), caractérisés par le remplacement des support physiques grace à la chute des coûts de stockage. Comme dans les chaines de fabrication, les processus métiers sont devenus associés à des back bones tels les ERP, les portails d'intégration, et les outils de workflow pivots de l'activité métier. 

Parallèlement les processus font l'objet d'une attention particulière et leurs interfaces sont associées à des évènements. 
  • Les processus sont revisités, normalisés, contraints par des normes de plus en plus invasives dans le monde bancaire finance continuité, sécurité etc.. L'organisation prend progressivement le dessus sur l'initiative et l'expérience individuelle. Pour être performante, robuste, resiliente, l'organisation doit codifier non seulement l'information mais aussi les processus. 
  • Les processus sont déclenchés, connectés, réceptifs ou en attente d'évènements d'origine diverses: Origine interne, externe à l'entreprise, techniques, fonctionnels, prévisibles ou accidentelle. 
Il y a bien longtemps qu'on parlait déjà de Event Driven Architecture.  Mais il s'agissait d'une construction technique pour traiter une problématique technique: on a eu les MOM, les systèmes transactionnels orientés traitement au fil de l'eau , dit "wait for input"dans les systèmes transactionnels. Mais ce n'est que plus récemment que les hommes commencent à penser que des évènements qualifiés pourraient déclencher eux même des processus, ou les relancer à une étape spécifique. Cette possibilité est ouverte dès lors qu'on pense en termes d'outillage orienté BPM: Business process modeling ou ESB Enterprise Service Bus. Un système back  bone qui fédère tous les flux (ESB) les transforme éventuellement, et les mobilise dans la résolution de processus métiers (BPM).  Dans cette évolution, les systèmes transactionnels ne sont plus les systèmes frontaux des hommes, ce sont des fournisseurs de service comme d'autres Data Store. 

Deux tendances se font jour en conclusion
  • d'une part la nécessité de définir et d'appliquer des modèles de référence pour cadrer les processus métier, ceux des métiers comme ceux de l'informatique. 
  • d'autre part le besoin d'intégrer les évènements comme des déclencheurs de processus pour autant que ces évènements sont identifiés, qualifiés comme évènements de gestion et que les flux ainsi rendus acteurs soient surveillés afin de laisser l'ensemble fluide et dans les normes de débit et de régularité prévus
Ce sont autant de secteurs générateurs d'opportunités pour les éditeurs software et pour les métiers de l'informatique. 

vendredi 9 décembre 2011

Je fais maintenant partie d'un réseaux d'Architectes consultants en transformation de SI, en gouvernance d'Entreprise ainsi que d'ingénieurs Java/J2EE , et mainframe.
ces profils sont consultables sur www.actifa.com et http://www.arkha.com/ 


Nous sommes un réseau de consultants issus de la culture mainframe: Architectes ingénieurs systèmes et développement , administrateurs, chefs de projets ayant comme caractéristique la double compétence :


  • Mainframe MVS/COBOL CICS IMS DB2 MQ Series JCL ISPF et tous les outils plus récents du z/OS
  • La compétence et l'expérience des projets en milieu ouvert :
    Applications Web Java/J2EE et .Net - conception et développement de clients légers, clients riches et réalisation de Serveurs d'Entreprise sous UNIX, LAMP mais aussi les clusters Weblo et WebSphere

Nous pouvons vous apporter une aide précieuse dans des projets complexes nécessitant une grande interopérabilité entre le mainframe et les environnements Windows, Unix, ESB comme Tibco, WebMethod, des ERP, CRM (Coheris, Oracle/Siebel, BPM comme Teamworks), 
Nous sommes tous passé par la R&D, comme ingénieur développement sénior, ou consultant chef de projet, parfois les deux. 
Certains d'entre nous ont une compétence très pointue sur les Resources Adapter et sur l'architecture logicielle. Spécialistes de toutes les interfaces et les protocoles de communication du mainframe : (3270, CICS/ECI, IMSConnect, MQ Series, Web Services, XML et… ) 

mercredi 21 septembre 2011


Le cloud peut-il offrir une perspective de développement ou de redéploiement des systèmes applicatifs « mainframe centric » ? - Y a t-il un modèle économique viable pour la croissance et le renouveau des systèmes existants – le « legacy »

les Systèmes applicatifs « mainframe centric » données , traitement batch et temps réel, volumétrie & capital en a/h 

Les  grands groupes comme les entreprises moyennes ont construit leur informatique dans les années 70/80 à une époque où les technologies et les langages étaient encore peu développés. Coté technologies les mainframes (essentiellement IBM System Z aujourd'hui) avec des systèmes temps réel comme CICS et IMS, un gros volume de batchs dont les chaînes de traitement occupaient la nuit, lorsque les systèmes temps réel ne fonctionnaient pas en 24/24.

L'architecture de ces Systèmes était alors entièrement résidente dans le mainframe qui hébergeait les données, la business logic, la logique de présentation et l'interface de présentation qui était interprétée par les « green screen » ces terminaux passif microcodés.

Depuis cette époque le poste de travail s'est développé pour mettre toute l'intelligence métier et sa présentation coté utilisateur. Le terminal passif a disparu au profit des émulations. Les applications distribuées se sont répandues comme une trainée de poudre à l'époque du client/serveur, avec force redondance des données d'entreprise sur les postes de travail et dans des serveurs intermédiaires.

Les AGLs de quatrième génération (NSDK, Uniface, PowerBuilder, Access... ) les ERP (PeopleSoft, SAP..) ont conquis le terrain du poste de travail, crée une nouvelle logique métier avec leurs données métier. Du coup les données d'entreprise et les données métiers (qu'on a souvent affublé du vocable « modèle métier vs entreprise » ) ont nécessité une duplication et surtout une synchronisation.
Il en résulte une redondance importante, une complexité pour le concepteur qui doit maintenir des langages des technologies et des compétences séparées ainsi que pour l'exploitant qui doit maintenir une cohérence globale. Au final, l'entreprise est donc confrontée à une inertie dans les évolutions et des charges croissantes pour maintenir cet édifice – sans compter un risque de fragilité.

Depuis 2008, les cabinets conseils en architecture ont donc entonné une nouvelle ode à la transformation, à la modernisation, à la simplification : Plus facile à dire qu'à faire...

En effet le capital travail investi dans ces legacy – mainframe comme distribué – le nombre d'applications, de services métier ainsi que la diversité des situations deviennent tels que la remise en chantier de tout ou partie devient difficile et coûteuse alors que la valeur ajoutée pour les métiers est nulle. Il n'y a plus personne pour financer des investissements de transformation et comme la rupture technologique et l'obsolescence des développements d'application n'est jamais prise en compte dans les coûts d'évolution. Il n'y a pas comme à La Defense une pression foncière et un renouvellement constant de la demande due à la pénurie pour apporter une capacité de financement de la démolition / reconstruction.

Par ailleurs, les agents économiques ont besoin de continuité. Déménager coûte bien moins cher que changer de système d'information. Il n'y a pas de chose plus difficile à faire en informatique que de tuer un système applicatif. Le renouvellement des technologies ne profite qu'à ceux qui les vendent. Les clients ne savent pas se débarrasser des vieilles technologies car ils y ont investi du savoir faire qu'ils ne peuvent plus jeter.

Pourtant, demandez à un CEO ou un CTO de ces grands groupes comment ils voient l'avenir. Ils vous répondront que les nouveaux modèles de gouvernance passent par une rationalisation, une simplification et une suppression des redondances à laquelle le cloud pourrait apporter des solutions.

Quel est le modèle ? Déplacer le tas de poussières dans le nuage – ou re-développer les process métier dans le cloud ? Combien ça coûte et qu'est-ce que cela m'apporte ?

Il existe deux types d'offres dans le cloud : Plateform as a service ou Paas, et Service as a software ou Saas.
Dans le Paas, l'entreprise continue à maintenir ses applications mais sous traite toutes les autres opérations une fois qu'il a livré ses composants. Dans le Saas toutes les étapes de la conception jusqu'à l'exploitation sont sous traitées et le service est vendu sous forme d'abonnement.

Développer en Saas des applications d'entreprise n'est pas forcément simple car les offres de Saas sont restreintes au CRM, la RH ou à des fonctions d'infrastructure comme le mail ou la vidéo-conférence. Elles ne sont pas adaptées au cœur de métier .
Par ailleurs même si c'était le cas, sans renouveau pour les métiers, le coût d'un redéveloppement comme nous l'avons vu est incroyablement lourd. Le Saas n'a donc aucun intérêt pour une simple migration technique.

Reste donc le Paas : en temps que fournisseur de services mutualisés le fournisseur peut abaisser les coûts d'infrastructure, mieux gérer les compétences et maintenir une expertise de haut niveau dans le maintien des socles techniques, la surveillance, la non régression etc... Il y a donc un potentiellement un intérêt financier et pour la gouvernance

Comment passer d'un modèle où tout est internalisé à un modèle où tout est fourni en Saas ?

Il y a bien sur des résistances : Coté métier, on ne faisait pas toujours confiance aux informaticiens maison, on peut douter que la confiance en un acteur externe soit immédiate. Coté IT, on va lutter pour sa survie. L'arrivée des nouveaux modèles vient après les premières expériences d'externalisation, et elles n'ont pas toujours convaincu de leur efficacité.
Mais cette fois on ne touche pas forcément le développement, mais tout le reste.
Pour que cela réussisse il faut un acteur qui présente toutes les garanties de continuité, mais surtout qui ait à la fois une expérience éprouvée dans l'environnement externalisé ainsi qu'une approche industrielle de l'intégration, du cycle de mise en production et de toute la chaîne de services, support, gestion des incidents et des demandes, surveillance, pilotage etc...

Et pour que cela ait du sens, il faut repenser toute la chaîne de développement qui porte bien souvent la principale responsabilité dans la qualité de service global (les meilleures pratiques en développement, tests d'intégration, tests de charge éventuellement, et correction des livrables avant mise en production)
Pour que ça marche, il faut confier l'entière responsabilité des toutes les étapes à un tiers de confiance et le juger sur la qualité finale. C 'est à dire une TMA sur un périmètre et un service de Paas pour l'intégration, la recette, la production. Le client gère le contrat, vérifie la qualité de service et le cycle d'évolution des demandes nouvelles et des incidents.

Quels sont les points sensibles du Paas ?

Lorsque l'application externalisée en Paas est indépendante des systèmes existants en interne, le risque est faible car il n'y a pas de problématique de synchronisation. Mais lorsque les bases de données ou le système transactionnel du back office doivent être cohérents on a alors besoin de synchroniser des données et des traitements en direct ou en différé.
Dans tous les cas, la technologie doit garantir la délivrance et la bonne intégration des flux.

Synchroniser en différé fait appel à un ESB , un EAI ou de façon plus rudimentaire à un automate d'échange de fichiers comme CFT. Les données échangées sont intégrées par un identifiant de médiateur et non sous l'identité du producteur de l'événement (un gestionnaire back office, un commercial ..)

Mais bien souvent pour donner une image cohérente des données d'entreprise à tous les acteurs à un instant donné, il faut que les données du Paas et de l'entreprise soient synchrones, sinon même dans la même unité logique de traitement.1
Bien sûr toutes les applications n'ont pas besoin d'un niveau de synchronisation sans faille. Et si elles ne l'avaient pas en interne, il n'y a pas de raisons pour que le Paas change le niveau d'intégration. Mais dans le monde financier, et même dans un système logistique la perte d'information peut être dramatique.
D'autre part, lorsque des systèmes travaillent en parallèle sur le même LAN, le temps de latence est très faible. Avec le Paas les temps de latence vont allonger considérablement2 les transactions comportant un grand nombre d'échanges. Il faut donc une infrastructure performante, rapide et qui donnent les mêmes facultés de garantie de délivrance qu'en local alors qu'en Paas on est sur un WAN planétaire.

Quelles sont les technologies qui peuvent dès lors apporter le même niveau de sécurité ?


vous cherchez un job ? allez voir jooble-fr.com

Suite prochainement....

1LUW Logical Unit of Work est assurée par le two phase commit qui garanti une mise à jour synchronisée de toutes les données placées dans la même « transaction »
2Entre un facteur 10 et un facteur 100