cloud computing ou l'informatique dans les nuages les points de

43
IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE n°85 Bimestriel - mai/juin 2010 Cloud computing ou l’informatique dans les nuages Les points de fonction Green IT : fable écologique ou sujet incontournable pour la DSI ? Le web sémantique : la voie royale pour gérer l’information ? Ils diffusent leur code logiciel en open source

Upload: phamnguyet

Post on 14-Feb-2017

215 views

Category:

Documents


0 download

TRANSCRIPT

ITLA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

n°85

Bim

estr

iel -

mai

/jui

n 20

10

Cloud computing ou l’informatique dans les nuages

Les points de fonction

Green IT : fable écologique ou sujet incontournable pour la DSI ?

Le web sémantique : la voie royale pour gérer l’information ?

Ils diffusent leur code logiciel en open source

ZOOM OUTSOURCING

L’avis des directions informatiques

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. »

en savoir pLus

demandez le Livre Blanc rédigé par le Gartner Group et cast sur ce thème :« information series on application management » :www.castsoftware.com/outsourcing

découvrez l’expérience de plusieurs sociétés utilisatrices de solutionsd’application intelligence :www.castsoftware.com/customers

de la valeur ajoutée de l’applicationintelligence pour piloter efficacementun parc applicatif sous-traité

La maîtrise des applications et des prestataires dansune opération d’outsourcing

Les entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer

des externalisations plus stratégiques. on l’a récemment observé dans l’automobile avec renault ou dans la grande distribution avec carrefour.

dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution.

comme dans n’importe quelle opération d’outsourcing, le contrat l iant le fournisseur est capital, en particulier les sLas. néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls sLas se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts.

c’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses.

L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. sont ainsi apparues des solutions dites d’application intelligence, basées sur

une technologie avancée d’analyse de code source.en fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant.

La valeur ajoutée de ce type de solutions d’application intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après.

audit de l’existant et préparation des appels d’offres• Déterminerlescaractéristiques

techniques du portefeuille applicatif existant avant de le sous-traiter

• Disposerd’informationsderéférencepour évaluer les propositions des sous-traitants

• Obteniruneimageàl’instanttdesapplications pour permettre un suivi dans le temps

transfert vers le prestataire• Réduirelaphased’acquisitionde

la connaissance pour entreprendre plus vite des tâches productives

• Diminuerlecoûtliéàlaproductiond’une documentation exploitable et maintenable par le prestataire

contrôle de la qualité et des coûts en cours de projet• Suivrel’évolutiondelamaintenabilité

et de la qualité pour éviter toute dérive

• Etrecapabledevaliderlaquantitéetla qualité du travail facturé

• Etreenmesuredechallengerlesous-traitant lors des négociations d’avenants

• Industrialiserlesrecettestechniques

renouvellement de contrat, transfert ou ré-internalisation• Détermineretqualifierlesécarts

entre la prestation prévue et les livrables recettés

• Disposerdesinformationstechniques caractéristiques du portefeuille applicatif en fin de prestation

Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, cast. reconnu par les analystes informatiques comme précurseur du marché, cast compte plus 500 comptes utilisateurs de sa plate-forme d’application intelligence dans le monde.

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

Publi-Reportage

www.castsoftware.com

Editeurpress & communication franceune filiale du groupe cast3, rue marcel allégot92190 meudon - francetél. : 01 46 90 21 21fax. : 01 46 90 21 20http://www.it-expertise.comemail : [email protected]

Rédacteur en chefJosé dizemail : [email protected]

Directeur de publicationaurélie magniezemail : [email protected]

Abonnements/Publicitéemail : [email protected]

Conception Graphiquenicolas Herlememail : [email protected]

Parutionit-expert - (issn 1961-9855) est un journal édité 6 fois par an, par p&c france, sarl de presse au capital de 60 976,61 e.

Avertissementtous droits réservés. toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autori-sation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 p&c france. toutes les marques citées sont des marques déposées.Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de press & communication.

Abonnements01 46 90 21 21

vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/

ITLA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUERévolution annoncée de la programmation

Le rachat annoncé de sybase par sap remet sur le devant de la scène trois avancées majeures des sGBd. en premier lieu, les technologies In-memory permettent de travailler en mémoire sur des volumes de données très importants. Bien entendu, chaque éditeur propose sa propre technologie, souvent suite au rachat d’une société spécialisée.

seconde technologie à examiner : le stockage des données en colonnes. en limitant les résultats aux seuls champs utiles à la requête, le colonage accélère encore l’accès aux données en les enregistrant dans l’ordre des index, ce qui évite de « balayer » tous champs de chaque enregistrement. et cette optimisation devient plus sensible encore pour les applications analytiques.

enfin, le serveur analytique sybase iq rencontre un franc succès auprès des sociétés financières et des opérateurs télécom, grâce à sa capacité de détecter à la volée des contenus dans les flux transactionnels pour des applications de type antiblanchiment financier.

toutefois, cette approche de type cep (complex event programming), le colonage ou in-memory seraient réellement plus intéressants avec des programmes en exploitant tous les avantages. ce qui réclame de nouveaux modes de programmation, et promet donc une décade encore riche en innovations !

José Dizrédacteur en chef

édito

4 IT-expert n°85 - mai/juin 2010

5IT-expert n°85 - mai/juin 2010

IT-expert n°85 - mai/juin 2010

6 DossierCloud computing ou l’informatique dans les nuagesmathieu poujol, directeur chez pierre audoin consultants apporte un éclairage

salutaire sur ce domaine de plus en plus assombri par le marketing. s’appuyant sur

des résultats d’études, il dresse un état des lieux du cloud vu par les entreprises, en

france et en europe.

12 TechniqueLes points de fonctionvisant à mesurer la « valeur fonctionnelle » d’une application ou d’un projet, les points

de fonction. À l’heure de l’industrialisation des applications et des développements,

ces points de fonctions nés dans les années 70 ont de nouveau le vent en poupe. un

dossier exhaustif et incontournable.

20 Actualités InternationalesLes informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances.

24 Quoi de neuf docteur ?Green IT : fable écologique ou sujet incontournable pour la DSI ?obligations réglementaires, réduction des coûts, image de l’entreprise, stratégie

d’innovation… de multiples leviers peuvent inciter les entreprises à déployer une politique

Green it. L’acteur explique les différents organismes et acteurs qui contribuent à cette

évolution d’avenir dans l’informatique.

32 Comment ça marche ?Le web sémantique : la voie royale pour gérer l’information ?découvrez comment les agents logiciels et le Web sémantique révolutionnent la

gestion des documents sur internet et dans l’entreprise. L’auteur passe en revue tous

les aspects : utilisateurs et accès, modèles de représentation, multimédia, distribution

et automatisation… un point complet !

39 LivresVirtualisation en pratique par Kenneth Hess et amy newman et Gestion de projet

agile par véronique messager rota.

40 Rubrique à brac Ils diffusent leur code logiciel en open sourcepourquoi certaines entreprises partagent-elles leur code source avec la communauté

du logiciel libre ? Éditeurs, entreprises utilisatrices, communautés ou fondations…

voyage au cœur d’un monde très particulier, et aux modèles économiques variés et

innovants.

Sommaire

6 IT-expert n°85 - mai/juin 2010

Au cœur de tous les débats et de la communication des acteurs de l’informatique,

le Cloud Computing occupe une large partie de la scène informatique depuis

plusieurs mois. Au-delà des effets marketing, ce concept recouvre plusieurs

réalités et propose de nouveaux modèles prometteurs. Sur quels concepts repose

le Cloud Computing ? Et quelles sont les réalités du marché ?

Cloud computing ou l’informatique dans les nuages

Dossier

7IT-expert n°85 - mai/juin 2010

Une réalité aux contours clairement définis

un nouveau concept ou une nouvelle approche nécessitent avant tout une définition claire des concepts et une compréhension de leur articulation.

Définitions

L’informatique dans les nuages ou Cloud Computing est un concept où les ressources informatiques sont virtualisées et dynamiquement élastiques (provisionnement et dé-provisionnement automatique). ces ressources sont fournies comme un service à travers internet, de manière transparente pour les utilisateurs. Le concept inclut l’infrastructure as a service (iaas), la plateforme as a service (paas) et le software as a service (saas).

« L’IaaS ou Infrastructure as a Service » consiste à fournir de l’infrastructure informatique (typiquement via une plateforme virtualisée) comme un service. plutôt que d’acheter des serveurs, des logiciels, de l’espace pour le centre de données ou de l’équipement réseau, les clients acquièrent ces ressources informatiques comme un service complètement externalisé. ce service est facturé en fonction du niveau de consommation de la ressource. c’est une évolution de l’hébergement web.

« Le PaaS ou Plateforme as a Service » consiste à fournir une plateforme informatique ainsi qu’une pile de solutions de développement, de test et d’exécution ; le tout étant consommé comme un service. cela facilite le déploiement d’applications, en réduisant le coût et la complexité généralement associés à l’achat et à la gestion des couches de base du matériel informatique et des logiciels. toutes les fonctionnalités requises pour soutenir le cycle de vie complet des applications sont fournies.

« Le SaaS ou Software as a Service » est un modèle de déploiement de logiciels par lequel un éditeur offre à ses clients la licence d’utilisation d’une application à la demande. Le logiciel est consommé comme un service. Les fournisseurs de logiciels en régime saas assurent soit l’hébergement de l’application sur leurs propres serveurs web, soit le téléchargement du logiciel sur l’environnement client (ils peuvent le désactiver après utilisation ou expiration du contrat). Les fonctionnalités à la demande peuvent être gérées en interne ou par un tiers fournisseur de services d’applications.

L’iaas correspond à la partie infrastructure de la technologie cloud computing, le paas à la partie middleware, et le saas à la partie applicative. Le saas offre des services d’application à travers le web. il s’agit d’une évolution du concept de fournisseur de service d’applications - application service provider (asp), basée sur une infrastructure plus efficace (centres de données optimisés cloud computing) et avec une mise à disposition de l’application plus standardisée (services web sur ip).

Le concept d’informatique dans les nuages pourrait être également considéré comme de l’utility computing par lequel les utilisateurs finaux peuvent accéder aux ressources informatiques presque aussi facilement qu’à l’électricité ou à l’eau courante. il peut être privé (intégré au système informatique de la société, à l’intérieur de son pare-feu) ou public. dans sa forme externe (privé ou publique), la technologie « cloud » peut être considérée comme un nouveau moyen d’externaliser certaines parties du système informatique d’une société. ce modèle est orienté vers les dépenses en investissements (opeX plutôt que capeX) et vers une automatisation complète du centre de données.

Les nuages publics (Google, microsoft, amazon…) sont une nouvelle forme d’externalisation (infogérance), incluse dans le segment de l’externalisation applicative (cf. associated it services profile). quant au nuage privé, il s’agit d’un concept architectural autour duquel les organisations (utilisateurs finaux) bâtissent leurs centres de données de nouvelle génération, de manière optimisée et virtualisée.

en mars 2010, pac a réalisé des entretiens téléphoniques avec 200 décideurs français d’entreprises de plus de 200 personnes afin de mesurer l’impact du cloud computing en france. une très forte majorité d’entre eux affirme s’orienter de préférence vers le développement d’un cloud privé.

Sur quel type de Cloud Computing êtes-vous en train/ investiriez-vous en premier?

Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France

L’assemblage des meilleures nouvelles technologies

Important : la catégorie des logiciels payants du type jeux accessibles via le web n’est pas incluse dans notre analyse.

L’informatique dans les nuages est un des éléments clés, avec l’open source et l’architecture orientée services (soa), de la révolution industrielle de l’informatique. Le cloud est né de la prolifération des systèmes virtualisés pour les serveurs hors mainframes (serveurs de milieu de gamme et X86). cette évolution a permis de dissocier et de découpler des logiciels d’applications des plateformes matérielles.

Infrastructure cloud computing prioritairedans les investissements

71%7%

13%

■ cloud privé

■ cloud public

■ cloud hybride

8 IT-expert n°85 - mai/juin 2010

Le cloud computing consiste en une évolution structurelle des centres de données. elle intègre de nombreuses technologies récentes (comme la virtualisation, les piles technologiques internet, l’informatique verte – Green it) ainsi que les dernières tendances (globalisation, smart grids – « grilles intelligentes »), et cela, afin de pousser plus loin le concept de centre de données.

cette évolution a été rendue possible grâce aux progrès effectués au niveau des outils et de l’intermédiation. cela a permis de distribuer dynamiquement les ressources matérielles en fonction des besoins applicatifs, sans que ces applications fonctionnent forcément sur des outils informatiques spécialisés.

Le renouveau de l’externalisation et du stockage il parait fort probable qu’une bonne partie des activités liées à l’externalisation va migrer vers le cloud computing. et cela, parce que le concept permet la réduction de coûts via l’optimisation, la mutualisation, la consolidation et la virtualisation de l’infrastructure informatique. ce qui incarne justement l’un des leviers les plus significatifs des services d’outsourcing.

L’informatique dans les nuages va également impacter les services de stockage et d’hébergement, car elle propose des services de qualité pour un prix final très bas par rapport aux offres spécifiques du marché. ainsi, le service cloud s3 (simple

storage service) d’amazon est rapidement devenu l’une des principales plateformes de stockage au niveau mondial.

De la puissance à la demandeL’accès à de la puissance de calcul et à des ressources informatiques à travers l’internet va aussi stimuler le développement de client léger virtualisé qui accèderont au cloud afin de suppléer à leurs ressources limitées (par définition) par des ressources (puissance de calcul, stockage) disponibles à travers le nuage. un exemple avec le service ec2 (elastic compute cloud) d’amazon qui propose des serveurs virtuels activables à distance via internet. et cela ouvre de nouvelles opportunités pour le marché, par exemple l’offre YuuWaa de Gemalto, un hybride unifié et sécurisé de stockage qui combine une clé usB et la base de la technologie cloud.

Les logiciels Open Source (oss) prospèrent également avec le cloud computing, car la plupart de ces plateformes sont bâties sur des composants oss. par conséquent, l’oss est un facilitateur du modèle dans les nuages, du fait aussi qu’il favorise l’ouverture de ces plateformes. toutefois, cela ne signifie pas que les offres sont open source!…

finalement, le cloud computing est également très lié au soa (architectures orientées services), car le cloud est une architecture orientée services.

Un marché en forte croissance

SourcesLes chiffres de marché sont issus du programme de recherche sitsi®, un programme d’analyse du marché global des services informatiques et des logiciels que pac a développé depuis plus de 15 années. Les principaux éléments de la méthodologie incluent de la recherche documentaire ainsi que des entretiens avec les acteurs majeurs du marché.

ces données ont été utilisées par pac pour sa mission sur le futur du logiciel en europe, qui a été réalisée cette année pour le compte de la dG7 de la commission européenne. L’étude est consultable sur le site de la commission européenne : http://cordis.europa.eu/fp7/ict/ssai/study-sw-2009_en.html

Valeur de marché par région – si disponible (tout en EUR 2008 constant) Croissance annuelle du marchéarea 2007 2008 2009 2010 2011 2012 area 2007 2008 2009 2010 2011 2012eu 27 2 741 3 321 3 974 4 743 5 663 6 725 eu 27 - 21,1% 19,7% 19,4% 19,4% 18,7%

market structure 2008

market structure 2012

caGr 08/12

saas 50.5% 50.9% 20.5%paas 14.3% 15.0% 19.6%iaas 35.2% 34.1% 17.5%cloud computing 100% 100% 19.3%

8 000

7 000

6 000

5 000

4 000

3 000

2 000

1 000

0

■ Saas Total

■ Paas Total

■ Iaas Total

M€

2007 2008

Cloud Computing - EU27

2009 2010 2011 2012

Dossier

9IT-expert n°85 - mai/juin 2010

Analyse générale du marché

Le rythme de développement du cloud s’est accéléré ces derniers temps et cela va continuer dans le futur. Le cloud apporte des offres aux coûts généralement optimisés pour les organisations. mais il apporte aussi et surtout de l’élasticité, de l’automatisation et une facilité d’utilisation inédits.

Flexibilité et disponibilité dépendantes du réseau

Les avantages identifiés les plus importants sont des coûts optimisés, la flexibilité, la simplicité et la capacité des utilisateurs finaux à transformer une partie de leurs dépenses d’immobili-sations (capeX) vers des dépenses d’exploitation (opeX). La sécurité et la dépendance envers le réseau sont les principaux inconvénients.

Quels sont les principaux avantages du Cloud Computing ?

Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France

Quels sont les principaux inconvénients du Cloud Computing ?

Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France

Tout n’est pas toujours rose au pays du Cloud

Sécurité & confidentialité des donnéesL’un des principaux problèmes liés au cloud computing provient du fait que les utilisateurs ont le sentiment de perdre le contrôle sur leurs données. ce concept implique également la capacité

à répondre clairement à plusieurs questions juridiques (règles de conformité dans certains pays/secteurs verticaux comme le secteur bancaire au Luxembourg) et de sécurité (données nationales sensibles, données industrielles confidentielles…). À cela s’ajoute le fait que la plupart des centres de technologie cloud ne sont pas encore basés en europe et/ou ne sont pas gérés par des sociétés commerciales européennes. Beaucoup de sociétés informatiques risquent aussi d’être trop dépendantes des fournisseurs de technologie cloud, car beaucoup de ces technologies ne sont pas assez « ouvertes ». L’association du logiciel libre et du cloud computing pourrait dans certains cas apporter une réponse à cette problématique. L’élaboration de systèmes avancés de chiffrement et une régulation européenne forte sur la localisation des données et l’interconnexion des clouds sont d’autres aspects à prendre en compte dans la réponse à apporter à ces problématiques.

Investissements amontL’informatique dans les nuages promet une efficacité maximale pour les centres de données ainsi que pour la livraison de logiciels. cependant, parvenir à ce résultat nécessite de grands investissements de la part des fournisseurs de services informatiques. ces investissements ont été réalisés au niveau des industries de production lourde (les industries à grand nombre d’actifs) et seulement quelques acteurs européens peuvent remplir les conditions dans ce domaine, sur le long terme. Les fournisseurs traditionnels d’outsourcing (t-systems, capgemini, atos origin…) et les opérateurs télécoms (orange Business services, Bt Global services, deutsch telekom…) sont les acteurs les plus éligibles à ce niveau.

L’infrastructure réseauLe cloud computing rend les systèmes informatiques plus dépendants qu’ils ne l’étaient de la qualité des réseaux de télécommunication. toutefois, ces réseaux ne sont pas réservés exclusivement aux services informatiques, et transportent aussi de la voix et de l’image/vidéo. et cette dernière se montre très gourmande en bande passante. un aspect limitera pour quelque temps encore le recours massif à des clouds publics trop lointains. en revanche, pour que le cloud computing se développe, des investissements très conséquents devront encore être réalisés dans les infrastructures réseau européennes et internationales.

Création et destruction de valeur

L’informatique dans les nuages est une innovation de rupture qui transforme l’informatique, la faisant passer d’une industrie légère à une industrie lourde : c’est-à-dire d’une industrie basée sur la main-d’oeuvre en une industrie basée sur les investissements. ce type d’innovation, selon la théorie de schumpeter sur la destruction créative, aura de fortes conséquences sur le marché. La plus notable est que l’hypermutualisation qu’elle apporte réduira fortement le segment de marché des « workloads » les plus banalisés. cela pourra engendrer des problèmes conséquents pour certains acteurs informatiques, mais libérera également des capacités d’investissement chez les clients pour des projets à plus forte valeur ajoutée.

Disponibilité des ressourcesà la demande

42%

34%

29%

21%

19%

14%

12%

11%

0% 5% 10% 15% 20% 25% 30% 35% 40% 45%

Flexibilité

Facile d'accèset accès en self service

Payer pour ce que vous consommez,sans investir à l'avance

Optimisation de l'infrastructure

Performance

Rapidité de mise en œuvre

Sécurité

Sécurité

Dépendance au réseau

Perte de contrôle

Technologie non mature

Limitations techniques et matérielles pour l'utilisateur

Complexité dans l'administrationdu système

Compétences

0% 10% 20% 30% 40% 50% 60%

50%

35%

23%

10%

6%

6%

6%

10 IT-expert n°85 - mai/juin 2010

L’europe doit mesurer l’impact de ce changement et l’accompa-gner, car le cloud computing gagne et continuera de gagner du terrain assez rapidement. premièrement, sur des activités non-coeur de métier (stockage, environnement de développement, messagerie, environnement de test…), puis sur les applications critiques les plus « front-office » (crm, rH…). comme il s’agit d’un modèle du type infogérance, sa configuration de déve-loppement est censée suivre le même chemin, en apportant toujours plus de valeur ajoutée au fil du temps. et tout comme l’outsourcing, le cloud computing atteindra ses limites dans la valeur qu’il peut offrir au client, en fonction de la criticité des systèmes et de la nature des processus d’affaires.

cette mutation va générer un haut niveau de demande en services de conseil et en services informatiques pour la construction des centres de nuages publics ou privés. cela afin d’évaluer le contenu à mettre dans le nuage, ou afin d’en évaluer la sécurité…

pour l’utilisateur final, le transfert de valeur se fait via la transformation des dépenses pour le matériel et les équipements informatiques vers des dépenses pour des services (de capex vers opex). Globalement ce transfert de valeur sera bénéfique pour l’industrie ssBs (software & services Based software), mais les entreprises et les compétences devront évoluer assez rapidement.

Compétitivité de l’Europe

L’europe reste à la traîne face aux États-unis en matière de cloud computing. en effet, les acteurs dominants du marché sont tous basés aux États-unis, autant pour les spécialistes comme salesforce.com ou amazon que pour les acteurs traditionnels comme iBm ou microsoft. Les entreprises américaines bénéficient de leur ancrage sur le plus grand marché au monde et d’une très forte culture du capital-risque.

néanmoins, l’europe dispose de forts atouts, notamment grâce à son industrie des télécommunications. Le cloud computing

est basé sur des volumes et des ventes à faibles marges grâce à des centres de données accessibles à travers internet. ce modèle s’avère donc très adapté aux modèles d’affaires existants des opérateurs en télécommunication. toutefois, ces acteurs font face à des défis majeurs, car les spécialistes américains du cloud ont bien l’intention de coloniser le cloud européen.

en termes d’automatisation, facilitée par ce modèle, le cloud computing remplace la force de travail par de l’investissement en capital. cela illustre le modèle d’évolution des économies avancées énoncées par les théories économiques classiques. L’europe détient du capital et une force de travail onéreuse. comme pour l’automobile ou la sidérurgie, mieux vaut pour l’europe qu’elle mise sur une très forte automatisation afin de conserver ses usines à logiciel que son territoire. en ce sens, le cloud peut aussi être considéré comme un recours face aux délocalisations. n

Mathieu Poujol,directeur

Fondé par Pierre Audoin en 1976 (Paris), PAC est le seul groupe européen avec une

couverture globale : de fortes compétences locales et réponse globale. PAC est le

spécialiste de l’industrie du logiciel et des services informatiques : des fournisseurs

de logiciels et services informatiques, des utilisateurs de services informatiques,

des influenceurs et des organismes publics. Son approche intégrée couvre toute

la chaîne de valeur de nos clients : des rapports prêts à l’emploi, des services de

commercialisation & conseil.

Site web : https://www.pac-online.com

12 IT-expert n°85 - mai/juin 2010

Imaginés dès les années 70, les points de fonctions ressuscitent pour

accompagner les besoins de gouvernance SI et de gestion de projets, pour

lesquels une mesure objective s’impose. Ils deviennent aussi un moyen de

faciliter la communication entre informaticiens et utilisateurs.

Les points de fonction

Technique

13IT-expert n°85 - mai/juin 2010

effectivement utilisées…) et cette divergence des points de vue est une des sources principales de conflits entre moa et moe. La nomenclature fonctionnelle, par sa précision et son objectivité, favorise grandement la résolution de ces problèmes. c’est pourquoi nous introduisons un ratio d’une grande importance pour les urbanistes et architectes : « taux d’urbanisation » = nombre de points de fonction fourni par le si/nombre de points de fonction exprimés par les utilisateurs.

L’évaluation en points de fonction permet d’affecter une valeur objective et auditable à tous les composants du si et aux indicateurs de performance des processus si.

La gouvernance si est en vogue aujourd’hui. La maturité des entreprises dans ce domaine est très variable. La maîtrise de la mesure et l’usage de ces mesures donnent une idée assez précise de cette maturité. Les points de fonction y contribuent grandement.

Le principe des points de fonction

Les points de fonction sont un standard depuis la fin des années 70. au milieu des années 90, une normalisation expérimentale est entreprise par l’afnor. en 2003, l’iso normalise la partie mesure du standard de l’ifpuG (international function points user Group).

La mesure comme levier de la gouvernance SI

L’approche de la gouvernance si reposant sur la mesure constitue une représentation objective du si, commune à tous les acteurs : direction, moa, moe et prestataires. ce levier est de plus en plus pertinent pour éclairer toutes les décisions relatives à la gouvernance du si :• L’alignementduSIsurlesobjectifsstratégiques

de l’entreprise,• L’analysedelavaleur,• Lamaîtrisedescoûts,délaietqualité,• Lepilotagedelaperformanceetmaturité

des processus si,• Lagestionanticipéedesressourcesetdesrisques,• L’urbanisationprogressiveduSI,• Lebenchmarking,• Lechangementetl’améliorationcontinus.

Les avantages de l’analyse par les points de fonction sont multiples :• descriptiondesbesoinsdesutilisateursetdupérimètredu

si dans une nomenclature fonctionnelle détaillée, dont les éléments sont obtenus par l’application de règles précises, normalisées et auditables,

• mesuredescomposantsdecettenomenclaturefonctionnelle,également suivant des règles standard,

• organisationdesélémentsdelanomenclaturesuivantlesdifférents axes de l’urbanisation si et mesure des différentes strates et composants du si urbanisé,

• benchmarking,grâceauxmultiplesréférentielsdemesureset d’indicateurs déjà disponibles.

ces avantages illustrent les trois éléments essentiels de la mesure par les points de fonction : la nomenclature fonctionnelle, les mesures et les référentiels de mesures et d’indicateurs.

La nomenclature fonctionnelle peut se révéler un outil d’une grande efficacité pour la prise de décision relative au si. en effet, elle traduit les besoins des métiers et des utilisateurs. elle peut également exprimer les services qu’une application est susceptible de fournir aux utilisateurs. ces deux visions divergent souvent (par exemple, fonctions fournies par les erp et

Culturede la Valeur

Culturedu Pilotage

Ex. : BSC

Ex. : KPI

Ex. : Valorisation en Points de Fonction

Culture de la Performance

Culture de la Mesure

Historique de la norme

• En1979,AllanAlbrecht(IBM)proposeunepremièreversiondesaméthode.Unemesuredelaproductionlogiciellebaséesurlesfonctionsutilisateurs.Elledoitaideràprévoirlatailled’unprojet,soneffortdedéveloppementetlaproductivitédudéveloppement informatique. Albrecht a ainsi développé une métrique indépendante de la technique de développement qui n’a pas les inconvénients du comptage du nombre de lignes de code.

• En1986,aétéfondél’IFPUG(InternationalFunctionPointsUser’sGroup)pourassurerlaplusgrandediffusiondecetteméthode.

• En1995,l’AFNOR(AssociationFrançaisedeNORmalisation)normaliselaméthodesouslaréférencenormativeexpérimentaleXPZ67-160.

• En2003,l’ISO(InternationalOrganizationforStandardization)normaliselaméthodesouslaréférence20926:2003.

14 IT-expert n°85 - mai/juin 2010

Les services offerts aux applications tierces sont comptés de la même façon que les fonctions offertes aux utilisateurs humains sous la forme d’entrées, de sorties ou d’interrogations. Le terme « nomenclature fonctionnelle » désigne l’arborescence des fonctionnalités qui identifie précisément le contenu métier du système mesuré.

seuls les composants visibles depuis l’extérieur de l’application sont comptés. Les autres composants sont ignorés, car dépendant des choix d’implémentation ou liés aux solutions technologiques mises en œuvre. a partir de cette liste, pour chaque composant, à partir de l’association entre leur catégorie et leur complexité, les règles de la norme ifpuG fournissent un poids fonctionnel.

Catégorie de Composant

Complexité Faible

Complexité Moyenne

Complexité Elevée

GDI 7 10 15

GDE 5 7 10

Entrée 3 4 6

Sortie 4 5 7

Interrogation 3 4 6

La valeur fonctionnelle de la solution est obtenue par l’addition du poids fonctionnel de tous les composants. il s’agit donc d’une approche additive.

La valeur fonctionnelle, en points de fonction, s’établit selon trois principales façons de compter :• La mesure détaillée (detailled) détaille l’ensemble des

composants et leurs caractéristiques (catégorie et complexité) de chaque composant. cette mesure est très précise, mais très chronophage.

• La mesure moyenne (light) obtient une bonne précision sans être excessivement chronophage. pour un grand nombre de composant, cette mesure présuppose de la convergence des complexités vers une valeur moyenne. elle détaille l’ensemble des composants et leur catégorie. La complexité n’est pas précisée, tous les composants sont comptés avec une complexité moyenne. cette mesure est nettement plus rapide que la mesure détaillée pour une faible diminution de la précision.

• La mesure rapide (fast) estime rapidement l’ordre de grandeur du nombre de points de fonction. elle ne détaille pas l’ensemble des composants de la nomenclature fonctionnelle. diverses techniques permettent aux experts d’approcher le nombre de points de fonction. La plus connue consiste à établir un ratio représentatif entre poids des données et poids des traitements et à ne compter que les données.

Les points de fonction ont pour objectif de mesurer la « valeur fonctionnelle » d’une application ou d’un projet. La mesure fonctionnelle est représentative de l’importance des services d’une application existante, des besoins des utilisateurs ou de l’ampleur des développements à réaliser. et cette mesure est réalisée selon le point de vue fonctionnel des utilisateurs. elle s’effectue en mesurant les données et les fonctions selon plusieurs catégories (2 pour les données et 3 pour les fonctions) et suivant 3 niveaux de complexité (faible, moyen et élevé).

Les catégories des données :• LesdonnéesinternesappeléesGDIenfrançais

et identifiées sous le terme iLf (internal Logical files) dans le standard ifpuG et la norme iso.

• LesdonnéesexternesappeléesGDEenfrançais et identifiées sous le terme eif (external Logical files) dans le standard ifpuG et la norme iso.

Les catégories des fonctions :• LesEntréesappeléesENTenfrançaisetidentifiéessous

le terme ei (externals inputs) dans le standard et la norme.• LesSortiesappeléesSORenfrançaisetidentifiéessousle

terme eo (externals outputs) dans le standard et la norme.• LesinterrogationsappeléesINTetidentifiéessousle

terme eq (external inquiry) dans le standard et la norme.

Le principe de la méthode consiste à compter l’ensemble des composants perçus par les différents utilisateurs d’une solution. La façon dont sont mis en œuvre les composants (données ou fonctions) n’est pas prise en compte. Les aspects d’implémentation ou de réalisation technique ne sont pas étudiés dans la partie normalisée de la méthode, car cette dernière se focalise uniquement sur les aspects fonctionnels.

par utilisateur, on désigne les utilisateurs finaux, les administra-teurs fonctionnels, la moa, mais aussi les applications tierces qui échangent des résultats. Les données référencées et qui sont modifiées par une application tierce doivent être comptabilisées car elles correspondent à des données externes.

GDI

Périmètreétudié

Autresapplications

GDE

Entrées

Sorties

Interrogations

Frontières du système étudié

Entr

ées

Sort

ies

Inte

rrog

atio

ns

Type PF

Entrées 20

Sorties 35

Interrogations 12

GDI 30

GDE 14

Total 111

Technique

15IT-expert n°85 - mai/juin 2010

Une gouvernance du SI au point

Les points de fonction sont utilisables dans le cadre de la gouvernance si. pratiquement, la première utilisation des points de fonction concerne la valorisation fonctionnelle du parc d’application d’une organisation.

Des points de fonctions : pour quoi faire ?

L’utilisation des points de fonction est multiple. L’ifpuG propose trois principales utilisations :1. La valorisation fonctionnelle des applications. compte la

valeur du parc applicatif et compare la valeur fonctionnelle de diverses applications. ce type de comptage offre également un moyen de comparaison entre les fonctions utilisées et celles qui sont offertes par une application. elle met en regard les fonctions livrées et les fonctions commandées à un prestataire.

2. La valorisation projet mesure l’ensemble des composants fonctionnels à réaliser dans le cadre d’un nouveau projet. cette valorisation est un point essentiel d’entrée pour l’estimation de charges, car le facteur le plus influent de l’effort est la taille du développement demandé. cette estimation de charges peut se faire selon le standard ifpuG (non normalisé iso) ou via d’autres méthodes d’estimation de charges qui acceptent les points de fonction en entrée comme cocomo ii.

3. La valorisation d’évolution. cette dernière part d’une nomenclature fonctionnelle où la nature de l’évolution de chaque composant est marquée (modification, suppression, création). comme pour la valorisation d’un projet, celle de l’évolution est un point d’entrée pour l’estimation de charges.

Les points de fonction s’utilisent au-delà de ce que propose l’ifpuG. dans de nombreux cas, les points de fonction apportent un moyen de mesure riche et fiable.

Entr

ées

Inte

rrog

atio

ns

Sort

ies

GDI

GDE

Répartition de la valeur fonctionnellepar type d’applications

Types de composant

Nom

bre

de P

oint

s de

fonc

tion

Nom

bre

de P

oint

s de

fonc

tion

Axes d’analyseDomaine fonctionnelTechnologieAges des applications…

ApplicationRéférentielfournisseur

Groupede données

externes (GDE)8%

Entrées (ENT)29%

Sorties (SOR)24%

Interrogations(QUE)15%

Groupesde données

internes (GDE)24%

• 1984:IBMCIS&AGUIDELINES313–Versionoriginaled’AllanAlbrechtétenduedansleguided’IBMintitulé « iBm cis & a Guideline 313, ad/m productivity measurement and estimate validation ».

• 1988:Release2.Cetteévolutiondespratiquesdecomptageaétéréaliséepourtenircomptedel’extension des mesures pf et de nouveaux environnements de comptage.

• 1990:Release3estplusqu’uneévolution.LecomitédeL’IFPUG(InternationalFunctionPointsUserGroup) a défini un cadre homogène et cohérent de comptage en remplacement du nombre important des différentes règles de comptages. c’est le premier pas vers l’établissement d’un standard de mesure des pf quelque soit le type d’organisation.

• 1994:Release4intègre,principalement,desrèglesdemesurepermettantd’estimerlesPFtôtdansle cycle de vie des projets à partir des iHm.

• 1999:Release4.1clarifiedesélémentspeudocumentésdanslaversionprécédente.Ellepermetderendre l’ensemble des règles de comptage plus consistant et moins susceptible d’interprétations.

• 2000:Release4.1.1corrigequelqueserreursdelaversionprécédente.• 2001à2003:Release4.2neremetpasenquestionlesrègles.Principalementellerestructurele

manuel pour une meilleure accessibilité et lisibilité.• 2005:Release4.2.1corrigequelqueserreursdela4.2• 2009:Sortiedela4.3quidistinguenettementlamesurePFnormaliséeISOdufacteurd’ajustement

(non fonctionnel et non normalisé iso).

PrInCIPALES éTAPES DE L’évoLUTIon DU STAnDArD ET DE LA normE

16 IT-expert n°85 - mai/juin 2010

Les points de fonction (pf) permettent de mesurer la maturité des processus dsi en fournissant des indicateurs incorporés dans des tableaux de bord. Les pf sont utilisables dans le benchmarking. ils servent à valoriser son parc applicatif selon lusieurs axes : domaine applicatif, technologie, progiciel, âge des applications, etc. maintenir un référentiel associant les points de fonction avec d’autres métriques permet de déterminer des ressources utiles telles que le nombre d’etp (equivalents temps plein) pour les maintenances (correctives, préventives, évolutives), les assistances de divers niveaux, la prévision statistique du nombre d’anomalies…

cmmi ainsi que le cobit préconisent l’emploi des points de fonction comme base de mesure.

Niveau Utilisation

1 : Initial/performedtaille des applications

taille des projets

2 : Managed

taille des spécificationsestimation de l’effort par les pf

taille des lots projets (externalisation/internalisation…)mesure de la stabilité fonctionnelle (créations, suppressions, modifications…)

ratios : coût / pf, pf / Heure, défauts / pf, tests (en heures) / pf…

3 : Definedvalorisation en pf des interfaces avec les autres applications par les pf

corréler les tailles des applications en pf avec les changements de gestion des risquesratios support : Heures de support / pf, pf / personne support, …

4 : Quantitatively managed

utilisation pour la mesure de la performance des processus (pf/processus)utilisation comme base de mesure pour le contrôle statistique de la qualité produit

ratios : productivité organisation (total pf / total effort), qualité globale (nb défauts / pf), durée de réparation (temps / panne / pf), délais moyen avant panne (temps /panne / pf…)

5 : Optimized

analyse d’impact et estimation des impacts inter-projets et au niveau de l’organisation (comparaison en pf des zones d’urbanismes, mutualisation zones transverses, taux de mutualisation…)

ratios : défauts / pf (taux de défaut), pf réutilisés / pf total (taux de réutilisation), pf mutualisés / pf total (taux de mutualisation), pf progiciels / pf total (taux de progecialisation)…

Exemple d’utilisation des points de fonction selon les niveaux de maturité CMMI :

Les points de fonction servent de support à l’établissement des schémas directeurs. cette méthode fournit un moyen pour déterminer la valeur fonctionnelle et les coûts de développement des applications. associée à une méthode d’analyse de la valeur, elle contribue à définir les priorités des différents projets.

dans le même ordre d’idées, les points de fonction sont un support à la gestion de portefeuilles de projets en fournissant une mesure de la valeur fonctionnelle des applications qui composent les portefeuilles…

Technique

17IT-expert n°85 - mai/juin 2010

Les projets mieux maîtrisés

Les points de fonction sont un outil important dans la gestion de projet.

« La comptabilité fonctionnelle » qui mesure les évolutions en points de fonction sert pour valoriser la dérive fonctionnelle. réalisée à chaque phases d’un projet (émergence, cadrage, spécifications générales, spécifications détaillées…), quantifie la dérive qui est détectée et mieux maîtrisée. cette analyse lève des alertes, par exemple, si le besoin n’est pas mature, la dérive fonctionnelle reste importante même dans les phases avancées du projet. cette analyse mesure cette dérive et alerte rapidement le chef de projet.

Le suivi du réalisé et du « reste à faire » est mesurable par les points de fonction. cette mesure est un outil de suivi de la progression du projet en points de fonction livrés et non pas en simples charges. une corrélation des deux suivis mesure la performance des équipes tout au long du projet. ce suivi est un outil de diagnostique de l’avancement fonctionnel qui lève rapidement des alertes en cas de problèmes dans l’avancement du projet.

La valeur fonctionnelle d’un projet permet d’estimer les charges selon un cycle de vie défini. cette estimation est réalisée soit par coefficient de performance associé aux technologies, aux catégories de projets…, soit au travers de méthodes d’estimation de charges compatibles avec les points de fonctions (ex. cocomo ii).

en fin de projet, l’établissement d’un bilan de comparaison des mesures réelles par rapport aux prévues (valeur fonctionnelle pf et charges de réalisation) sert à l’organisation à capitaliser son expérience au travers de l’enrichissement d’un référentiel de mesures.

au-delà de ces valorisations, la méthode des points de fonction favorise la compréhension et le dialogue entre moe et moa. simplement au travers de la liste fonctionnelle des composants de l’application, la méthode des points de fonction offre une vision de l’application accessible à toutes les parties prenantes.

Des mesures pour urbaniser le SI

L’association des points de fonction à l’urbanisation si met à la disposition des urbanistes une métrique. cette métrique permet de mesurer le poids fonctionnel des zones, des quartiers ou des îlots de l’urbanisation. L’adéquation avec les objectifs stratégiques métiers est mis en évidence par cette mesure. Les points de fonction offre à l’urbaniste des métriques pour valoriser chaque composant de la cartographie ainsi que l’ensemble de son si.

La méthode des points de fonction offre un moyen de détection des fonctionnalités présentes dans plusieurs applications. Les points de fonction associés à l’urbanisation mesurent le taux de redondance ou de factorisation des composants du si. par exemple, avec un taux de factorisation nul, la valeur d’un îlot correspondra à la somme des valeurs fonctionnelles des applications qu’il contient. dans le cas contraire, la valeur de ce même Îlot sera plus élevée (factorisation des composants applicatifs du si pour le même périmètre fonctionnel au niveau de l’îlot).

Les points de fonction proposent un outil de mesure des référentiels partagés. ils servent à mettre en évidence les informations partagées au sein d’une organisation (Groupes de données externes communs à plusieurs applications).

ils servent de valoriser fonctionnellement les services communs réutilisables. par exemple au sein d’une administration la valeur de l’architecture applicative a été mesurée. cette mesure constate une augmentation de la valeur fonctionnelle d’une application. mais, elle correspond à une diminution globale de la valeur du patrimoine du fait de la factorisation des services réutilisables. À service constant, la diminution de la valeur de patrimoine est bénéfique, car elle reste corrélée à la baisse des coûts de maintenance.

Quelques limites et contraintes

La principale contrainte des points de fonction est liée au processus de mesure. ce processus s’appuie en partie sur la documentation de l’application. si la documentation est fiable, la mesure est fiable. dans le cas contraire, la valeur ajoutée et l’expertise du compteur entrent en jeu. dans des cas défavorables, deux experts peuvent arriver à une variation de 5 % et 10 % de la mesure. cette imprécision est maîtrisable, car traçable par la nomenclature fonctionnelle, mais nécessite de se rapprocher des utilisateurs.

pour l’estimation projet, la norme iso se limite aux aspects strictement fonctionnels. elle ne prend pas en compte la complexité de réalisation, pas plus que les moyens humains, matériels et technologiques. Les exigences non fonctionnelles ne sont pas prises en compte. ces limites ont un impact fort lorsqu’une estimation de l’effort d’un projet est réalisée statistiquement au travers d’un référentiel de productivité interne

- +

t Nomenclature t

t+1 Nomenclature t+1

Delta t+1

Variation nette

Variation brute (somme ajouts, suppressions et modifications)

t vers t+1

Ajout

Suppression

Modification

Delta

Ajout

Suppression

ModificationVale

ur fo

nctio

nnel

ledu

pér

imèt

re In

itial

Vale

ur fo

nctio

nnel

le d

u pé

rim

ètre

Supp

ress

ions

déd

uite

s

Vale

ur fo

nctio

nnel

le d

u pé

rim

ètre

Mod

ifica

tions

pri

ses

en c

ompt

e

Vale

ur fo

nctio

nnel

le d

u pé

rim

ètre

Ajou

ts a

dditi

onné

s

Périmètre totalsur lequel

porte la variationpour passerde t à t+1

Variation de la valeurfonctionnelledu périmètreentre t et t+1

18 IT-expert n°85 - mai/juin 2010

de nombreuses organisations utilisent des outils réalisés à l’aide de tableur tels que ceux de microsoft ou d’open office. Le principal défaut de ces outils réalisés sur ces plateformes bureautiques réside dans l’absence de fonction de référencement. néanmoins, ils sont totalement adaptables.

certains outils tels que ceux de cast permettent de réaliser un comptage à partir du code applicatif. ainsi, aip (application intelligence platform) réalise l’analyse du code et des requêtes de l’iHm. cet outil détermine également les évolutions fonctionnelles et permet d’obtenir rapidement l’évaluation d’un parc existant. dans tous les cas, cette évaluation sera complétée par un calibrage effectué par un expert afin de garantir la conformité des mesures aux normes et aux règles de comptage de l’organisation. ces outils automatiques ne produisent pas de nomenclature fonctionnelle, cadre de toutes les négociations ou d’utilisation des méthodes agiles tel que le backlog de scrum.

ou externe. en revanche, leur impact reste limité dans le cas de l’utilisation de la méthode cocomo ii qui intègre ces aspects. La méthode des points de fonction est statistique. plus la taille fonctionnelle mesurée est importante plus les résultats sont exploitables.

enfin, compte tenu de l’approche essentiellement fonctionnelle, la méthode des points de fonction stricto sensu doit être étendue pour s’adapter aux projets techniques, scientifiques, d’ergonomie ou à la maintenance corrective.

Une panoplie d’outils

Les outils liés aux points de fonction sont de trois ordres : comptage, référencement et estimation de l’effort.

Type Produits

Comptagefp Workbench™, scope™, sfera ®, fp outline™, pqmplus™, siesta ©

Référencementfp Workbench™, scope™, sfera ®, fp outline™, pqmplus™

Estimationspr Knowledge plan™, isBsG ©, cocomo

certains outils permettent de réaliser un comptage rapide comme fp outline, Kiss et spr Kp composants. L’intérêt consiste à enrichir progressivement le comptage. Les autres outils nécessi-tent de définir la liste des composants et leurs caractéristiques au travers de saisies multiples. cependant, ces outils ne permettent pas la réalisation de saisies rapides et de saisies de masse.

Technique

19IT-expert n°85 - mai/juin 2010

Pascal Lemaître,consultant senior

Utilise les points de fonction auprès des principaux clients de Semantys (Michelin,

DGFiP, SNCF…) et coresponsable de l’évolution de la gamme Semantys d’outils de

comptage et d’estimation de charges.

[email protected]

Lionel Perrot,consultant manager

Utilise les points de fonction depuis plus de 10 ans et intervient auprès des

principaux clients de Semantys. Il est coresponsable, au sein du pôle gouvernance

de Semantys, de la mise en œuvre des points de fonction dans les processus de

mesure SI. M. Lionel Perrot est membre de l’ASSEMI.

[email protected]

Joël André,directeur, cofondateur du cabinet

Membre de l’IFPUG et de l’ASSEMI, il utilise les points de fonction depuis plus de 15

ans et intervient auprès des principaux clients de Semantys. Il est responsable de

l’offre SEMANTYS et particulièrement de l’utilisation des points de fonction.

[email protected]

Utilisation des points de fonction en France

depuis de nombreuses années, diverses organisations utilisent les points de fonction : renault, psa, michelin, orange/france télécom, sfr, Bouygues télécom, la société Générale, la sncf…. certaines administrations telles que la dGfip (direction Générale des finances publiques), le ministère de l’agriculture et de la pêche utilisent les points de fonctions.La mise en place des points de fonction suit un processus qui commence par l’évaluation patrimoniale afin d’obtenir un niveau de maturité suffisant avant de passer à la valorisation des évolutions et à l’estimation de charge.

depuis plusieurs années ce processus est suivi auprès de michelin et de la dGfip. aujourd’hui, la dGfip utilise les points de fonction pour mesurer la valeur fonctionnelle de ses applications et de leurs évolutions. Les points de fonction servent de base de mesure pour des indicateurs dans le cadre de la mise en place de cmmi.

au-delà des utilisateurs, de plus en plus de ssii pratiquent les points de fonction. certains acteurs demandent à leur sous-traitant de s’engager sur des productivités pour la création, la suppression et la modification de pf dans le cadre de marché de tma (tierce maintenance applicative). ces contrats nécessitent, de la part des ssii, la maîtrise des points de fonction incluant la gestion d’un référentiel selon les domaines d’intervention et les technologies de production pour s’engager sur des coefficients de productivité. n

référencesIFPUG : www.ifpug.orvg

ISO : www.iso.org

ASSEMI : assemi.fr

SFERA ® : www.dpo.it

FP Outline™, PQMPlus™ : www.totalmetrics.com

FP Workbench™ : www.charismatek.com

FP Outline™, PQMPlus™ : www.totalmetrics.com

ISBSG : http://www.isbsg.org/

Knowledge Plan ® : www.spr.com

PQMPlus™ : www.qpmg.com

SIESTA © : www.sogeti.nl

CAST : www.castsoftware.com

COCOMO II : sunset.usc.edu/csse/research/COCOMOII

20 IT-expert n°85 - mai/juin 2010

Actualitésinternationales

Le Cloud SAP Business ByDesign arrive enfin cet été

À l’occasion de son show « sappHire now » à francfort mi-mai, sap a présenté Business Bydesign 2.5 comme le lancement de son offre d’erp en mode cloud, destinée aux tpe et pme/pmi (à partir d’une dizaine d’utilisateurs). outre l’intégration native des technologies office de microsoft, on constate également une

interface améliorée grâce à la technologie silverlight de… microsoft.

parmi les nouveautés : l’analyse en temps réel des données de l’entreprise en mémoire (y compris sur excel) via la technologie in-memory ; la mobilité sécurisée pour les connexions mobiles et 3G à l’erp, un premier niveau de personnalisation (écrans et formulaires essentiellement) ; des offres prépackagées (préparamétrées) en fonctions de certains métiers.

enfin, sap confirme que sa plate-forme reste multitenant, et propose même la possibilité aux entreprises d’opter pour des ressources matérielles dédiées (cpu, mémoire, disque). on regrettera que cette option soit baptisée « monotenant », un mot qui rend le message du multitenant ambigu (une seule plate-forme logicielle pour tous les clients qui se c réent une instance, sur ressources dédiées ou non).

Business Bydesign 2.6 prévue en fin d’année s’ouvrira plus un peu plus à la personnalisation et au développement par mash-ups (et dLL internes documentées) aux ssii et aux dsi. elle devrait accélérer la dynamique de l’offre, avant l’arrivée de la plate-forme de développement (paas) en ligne (.net et visual studio) courant 2011. n

microsoft verse 200 millions de dollars à virnetX

pour mettre fin aux poursuites pour violation de brevet initiées par le spécialiste américain de la sécurité virnetX à son encontre, microsoft a finalement négocié et versé 200 millions de dollars.

virnetX avait déjà gagné un premier procès en 2007 contre l’éditeur de Windows pour l’utilisation par celui-ci de sa technologie brevetée de réseau privé virtuel (vpn) dans Windows os Xp, Windows vista, Windows server 2003, Live communications server, Windows Live messenger, etc. microsoft avait été condamnée à verser 105,75 millions de dollars d’amende (85,29 millions d’euros). et virnet avait récemment renouvelé sa plainte, mais cette fois pour les systèmes d’exploitation Windows 7 et Windows server 2008.

virnetX travaille pour la cia (agence de renseignements américaine) pour sécuriser les communications en temps réel (messageries instantanées, téléphones portables…) et commercialise les brevets issus de ces travaux.

une bonne publicité pour cette petite société cotée, mais une affaire qui écorne encore l’image du géant de redmond… n

21IT-expert n°85 - mai/juin 2010

SAP offre 5.8 milliards de dollars pour s’emparer amicalement de Sybase

Le 12 mai, sap crée l’événement en proposant environ 5,8 milliards de dollars (65 dollars par action) pour racheter le spécialiste de bases de données sybase. on a beaucoup entendu, et sap a souligné, l’intérêt des technologies mobiles de sybase. toutefois, et bien que sybase ne soit pas très connu en france (en dehors de spécialistes), « c’est un peu court ». en effet, l’entreprise jouit aussi d’une grande réputation sur les bases de données, et particulièrement pour le décisionnel ou sa solution iq (interactive query) qui occupe une place de choix dans les secteurs financier et des télécommunications. secteurs où justement sap souhaite se renforcer…

Bien plus que la mobilitési sybase est effectivement devenu une référence sur les applications mobiles, il est surtout historiquement un éditeur de bases de données à forte image technologique (conception des sGBd dynamiques et des applications Web dès le milieu des années 90), dont une des versions est à l’origine de sqL server. excusez du peu !

voici donc une liste de quelques-unes des technologies phares de l’éditeur si convoité :• ASE (adaptive server enterprise, et sa version cluster) est le sGdBr de sybase conçu pour les applications

critiques ou à fort volume transactionnel, clairement positionné face à oracle et sqL server.• Sybase IQ (Interactive Query), est un sGBdr destiné aux applications analytiques (datawarehouse) combinant

stockage en colonnes, indexation totale et compression des données. plus de 1700 clients qui intéressent au plus haut point sap.

• Le SGBDR Advantage Database Server combine langage sqL et interfaces de développement natives compatibles avec les outils de programmation les plus répandus. destinée aux éditeurs et programmeurs, elle se positionne en base de données pour applications client/serveur performantes et à fort volume transactionnel.

• SQL Anywhere : base de données relationnelle « légère » (avec fonction de synchronisation sur un plus gros sGdBr) pour applications bureautiques sur de multiples plates-formes, dont téléphones mobiles. ses outils permettent de concevoir et de déployer des applications pour ces environnements.

• Sybase iAnywhere Mobile Office propose une infrastructure mobile complète pour apporter aux messageries électroniques d’entreprise l’ouverture vers la plupart des environnements mobiles. et Sybase Unwired Platform offre une architecture pour développement sans contraintes et de déploiement automatisé pour les applications mobiles. mobilité pour la finance (nBanking, rap - the trading edition), les opérateurs de télécommunication (mmX 365).

• SansoublierletrèspopulaireenvironnementdedéveloppementPowerBuilder et le module de conception de métadonnées PowerAMC.

on comprend mieux alors pourquoi sap a proposé une telle somme, obligeant un éventuel surenchérisseur à réfléchir à deux fois. n

microsoft attaque Salesforce en justice

Malgré une politique traditionnellement non agressive envers ses concurrents, microsoft semble cette fois bien décidée dans sa poursuite contre salesforce.com pour violation de neuf de ses brevets. si l’on ne connait actuellement pas le détail

de ses brevets, le responsable de propriété intellectuelle chez microsoft, Horacio Gutierrez affirme que l’éditeur investit « des milliards de dollars chaque année pour fournir des logiciels etdesservicesdequalité.Noussommesresponsablesfaceànosclients,nospartenaireset

nos actionnaires de la sauvegarde de cet investissement. Nous ne pouvons pas rester les bras croisés tandis que d’autres sociétés portent atteinte à notre propriété intellectuelle. » L’arroseur

arrosé a déjà dû faire face à plusieurs procès en la matière, et a perdu récemment contre les sociétés i4i sur le XmL et virnetX sur le vpn. mais surtout, salesforce.com est devenu un concurrent sérieux face à ses offres crm, et devient un vecteur très porteur pour les autres concurrents de microsoft en portant leurs solutions en mode cloud sur sa plate-forme, tandis que le géant de redmond lance sa plate-forme de développement cloud baptisée azure, concurrente de force.com de salesforce. simple coïncidence ? n

Actualités internationales

22 IT-expert n°85 - mai/juin 2010

Unity : l’interface Ubuntu allégée pour netbook

mark shuttleworth, créateur de la distribution ubuntu a confirmé que la version 10.10 netbook edition de cette suite Linux proposerait un environnement de bureau allégé baptisé unity.

La nouvelle organisation de l’écran (plus sobre) tirera profit des technologies Gnome 3 : le lanceur d’applications sur la gauche, la barre de recherche en haut aux côtés des menus de la fenêtre active, etc.

À la manière de ce que propose sony, ubuntu sera proposé en mode instant-on, un démarrage ultrarapide en « ubuntu Light » en quelques secondes avec des fonctions de base : lecture de médias, accès à internet.

une bonne nouvelle pour les utilisateurs de netbook qui recherchent généralement un équipement léger, réactif, et surtout, non pénalisé par une interface trop riche pour ce type d’usage. n

SFr passe devant Free sur l’ADSL

En gagnant 148 000 abonnés au premier trimestre 2010, afr totalise 4,592 millions d’abonnés à l’adsL (contre 4,56 pour iliad) soit une croissance de 13,6 % comparé à mars 2009. dans le même temps, free n’a recruté que 88 000 abonnés, et en a perdu 40 000 chez alice… orange s’est lui contenté de

57 000 nouveaux clients adsL. Bonne nouvelle : sfr a abaissé son taux de désabonnement à moins de 13 %. décidément, un très bon premier trimestre pour free qui a attiré 225 000 clients, contre 149 000 pour Bouygues telecom, tandis qu’orange en perdait 173 000 ! au total, sfr revendique 20,3 millions d’utilisateurs mobiles (dont 15 millions abonnés).

pour renforcer cet effet du en partie aux nouveaux forfaits illimythics, sfr va lancer de nouvelles offres premium, destinées à répondre aux besoins de clients prêts à payer pour obtenir plus. La prochaine version de sa box triple-play devrait intégrer l’accès à de nouveaux services à valeur ajoutée qui n’ont pas été précisés. et le tout pour un prix inchangé de 29,90 euros. À suivre… n

Symantec en quête de plus d’identité rachète verisign

« Enmai,faiscequiteplait!» : le mois des emplettes pour symantec qui s’offre les activités identité et authentification de l’éditeur américain verisign pour environ 1,28 milliard de dollars. Le panier regroupe les solutions ssL (secure socket Layers), certificate services, pKi (public Key infrastructure) services, verisign trust services et vpi (verisign identity protection) authentication service.

renforçant ainsi son offre d’authentification unique (sso), ravivée par l’explosion du cloud computing, l’éditeur se positionne plus fortement sur la gestion des risques, marché de plus en plus porteur. cette acquisition (qui serait finalisé vers septembre 2010) suit le rachat de pGp corporation (300 millions de dollars) et Guardiaedge (70 millions de dollars), spécialistes du chiffrement et de la prévention des fuites de données.

de son côté, symantec se consacrera uniquement à la gestion des noms de domaines. n

23IT-expert n°85 - mai/juin 2010

Actualités internationales

Google annonce son service Paas App Engine Business

Lors de sa conférence Google i/o à san francisco mi-mai, l’éditeur de services en ligne à dévoilé la nouvelle version entreprise de son app engine, service d’hébergement d’applications Google s’appuyant sur technologies vmware, avec portabilité en mode cloud. Google se positionne sur les plates-formes de développement

d’application cloud pour les entreprises (paas, platform as a service).

initialement destiné aux développeurs d’applications Web, l’app engine proposait d’héberger des applications destinées au grand public. toutefois, les utilisateurs jugeaient le concept limité et non adapté aux applications d’entreprise. app engine for Business s’est enrichi du « minimum syndical » : une console d’administration pour gérer et veiller sur les applications, un support technique, une garantie de service de 99,9 % de disponibilité, mais aussi la possibilité de définir des politiques de sécurité et d’accès aux applications métiers.

La tarification très agressive est mise en place : 8 dollars par utilisateur et par mois, avec un plafond de 1 000 dollars mensuel. actuellement, la solution est disponible pour un nombre limité d’utilisateurs.

Bientôt devraient arriver : installation de bases de données, ajout du protocole ssL pour protéger les échanges… n

office 2010 arrive avec les office Web Apps

Disponible dès le 12 mai pour l’entreprise et le 15 juin pour le grand public, la suite microsoft office 2010 n’apporte finalement pas de grands bouleversements par rapport à la

version 2007 : de nombreuses améliorations d’affichage et des vidéos intégrées dans les documents powerpoint. outllook 2010 propose lui plus de nouveautés : le menu-ruban est enfin disponible partout (tout comme access 2010) ou encore un social connector (historique des communications, y compris des réseaux sociaux).

en revanche, office 2010 incarne pleinement la stratégie software+services en combinant licences cloud et service on-line. en effet, office 2010 et sharepoint sont déclinés en versions allégées sous forme de services Web. Les office Web apps sont proposées aux entreprises via un contrat annuel ou par abonnement mensuel et par utilisateur sur microsoft online services.

La version famille/tpe est commercialisée à 379 euros, et la version professionnelle à 699 euros.Les services en ligne office Web apps, utilisables en cohérence avec les logiciels office, s’attaquent donc aux outils Google apps, pour 50 dollars par an pour les professionnels. Google annonce déjà deux millions d’entreprises utilisatrices de ses Google apps. il était temps que microsoft réagisse… n

oracle acquiert Secerno pour protéger ses bases de données

oracle poursuit sa politique d’acquisition externe avec le rachat mi-mai du britannique secerno, développeur des pare-feux datawall pour les bases de données, prévenant la perte de données.

un contrôle d’accès aux données qui intéresse le leader mondial qui complète ainsi son offre de sécurisation des environnements de données : identity management, advanced security, database vault et audit vault. en effet, datawall sait bloquer en temps réel les évènements interdits par les processus, pour les applications critiques ou non. « notre solution comble les brèches laissées par les politiques de sécurité, y compris celles concernant les utilisateurs de confiance ou à très haut privilège dans le système » assure-t-on chez secerno. des fonctions très utiles dans le cadre du respect des règles de conformité imposées par les autorités nationales et internationales, segment sur lequel œuvre également l’éditeur britannique. Les solutions secerno supportent les produits oracle, microsoft sqL server et sybase. n

24 IT-expert n°85 - mai/juin 2010

L’informatique verte ou Green IT est au cœur de l’actualité IT depuis 2008. manifestations, rapports d’experts et

analyses sont largement repris dans la presse générale et spécialisée. En 2008, le cabinet d’analyse Gartner classe le

sujet « Green IT » parmi les 10 technologies clés pour les entreprises dans les prochaines années. Plusieurs forums et

séminaires lui sont régulièrement consacrés en France. Une offre matérielle, logicielle, de conseil… se construit et un

marché se structure…

Green IT : fable écologique ou sujet incontournable pour la DSI ?

Quoi de neuf Docteur ?

25IT-expert n°85 - mai/juin 2010

sous l’impulsion du monde politique, les réglementations se mettent en place : • AuxÉtats-Unis,uneinitiativeglobaleliéeàl’environnementaétélancéeenoctobre2009(GreenGOv

challenge sur le site de la maison-Blanche http://www.whitehouse.gov/greengov/) et le Green it en constitue une des briques ;

• EnAllemagne,unprogrammenationalde25millionsd’eurosaétélancéen2009àl’initiativeduministère de l’environnement (Bmu) pour participer à l’efficacité énergétique des technologies de l’information ;

• EnFrance,unrapportsurlesTechnologiesdel’InformationetdelaCommunication(TIC)etledéveloppement durable a été remis en 2009 à Jean-Louis Borloo et christine Lagarde.

au-delà de ce buzz et d’un possible effet de mode, où en sont concrètement les dsi ? sont-elles devenues Green ?

Les diverses lectures du Green IT

face aux besoins des entreprises de maîtriser leur empreinte écologique, de réduire leurs dépenses énergétiques et celles de leurs clients, de mettre en place leur politique de développement durable, la fonction informatique offre des solutions. pour certains, le Green it est donc positif et apporte des solutions à l’ensemble de l’entreprise et à ses clients pour réduire l’empreinte écologique. or, la dsi est aussi un département avec des hommes, des ressources… qui consomment, se déplacent, etc. et surtout, elle s’avère très gourmande en consommation énergétique. c’est pourquoi d’autres cantonnent le Green it à l’ensemble des dispositifs et solutions pour réduire cette « empreinte dsi ». dans les entreprises du secteur tertiaire, la fonction informatique est devenue le principal consommateur énergétique, donc un des principaux pollueurs. une étude de la commission européenne estime, au plan mondial, que la fonction informatique dans l’ensemble des entreprises et organisations représenterait 2 % de la consommation énergétique globale et des émissions de gaz à effet de serre. Soit autant que le poids des transports aéronautiques.

cependant, le Green IT doit s’apprécier selon ces deux niveaux de lecture : la dsi en tant que pollueur qui prend des dispositions pour réduire ses propres empreintes et la dsi en tant que fournisseur de solutions pour réduire l’empreinte environnementale de l’ensemble de l’entreprise.

La DSI pollueuse directe ou indirecteun constat : « réduire la consommation énergétique des datacenter et du parc informatique » représente plus de 70 % de la littérature produite et des solutions décrites sur le Web concernant le Green it. cela couvre l’ensemble des idées, expérimentations et solutions concernant la virtualisation, les techniques matérielles et logicielles sur les postes de travail, les nouvelles solutions de serveurs, les outils et techniques d’optimisation de la dépense énergétique des centres de données. Les principaux acteurs sont les constructeurs de matériels.

parmi les thématiques traitées dans les 30 % restant de la littérature, on note le recyclage des matériels informatiques (en application de la directive européenne deee - déchets d’équipements électriques et électroniques -notamment) ou les réductions d’usages du papier et des consommables au sein de la dsi.

La DSI active pour réduire l’empreinte environnementaleselon leur secteur d’activité et leur stratégie, les entreprises ou organisations mettent en place des projets de réduction de leur empreinte environnementale. ils s’adressent naturellement à la dsi pour évaluer, mesurer, rendre des comptes. mais aussi, lorsqu’il s’agit de mettre en place de nouveaux processus, de nouvelles technologies, de nouveaux usages.

ainsi, la dsi peut mettre en place des projets de dématérialisation des flux intra voir inter entreprise, de l’automatisation de type workflow, de la vidéoconférence, des outils collaboratifs pour réduire les déplacements des collaborateurs… elle peut aider à déployer des dispositifs couplés à de l’électronique pour piloter les dépenses énergétiques dans les bâtiments ou encourager les bons usages et bonnes pratiques environnementales : covoiturage, bourses aux transports, communautés développement durable…

26 IT-expert n°85 - mai/juin 2010

La dsi est également là pour aider à la réduction de l’empreinte écologique des clients et des partenaires de l’entreprise. Les technologies de type smartGrid et les solutions logicielles mises à disposition des clients des entreprises (ex. carbonHub) accompagnent cette tendance qui va continuer à croître.

au sein de la dsi, quels sont les secteurs et missions plus particulièrement concernés par le Green it ? sur la base d’un fond de plan des missions de la dsi, quels sont les impacts et/ou réflexions à avoir vis-à-vis du Green it ?

CONTROLE

CLIENTS

STRATEGIE

PILOTAGE

RELATION CLIENT POLITIQUES SYSTEMES PROCESSUS METHODESGestion des besoinset demandes

Conventions de services

Sécurité Disponibilité

Capacité Continuitéde services

Processus

Méthodes

Gouvernance Informatique

Stratégie Informatique

Urbanisme & Architecture SI Management

Arbitrage des projets

Contrôle et Gestion des risques

Pilotage des projets/Activités

FOURNITURE DE SERVICES DEVELOPPEMENT

Indicateurs / Tableaux de bord de pilotage

Finance Ressources

Budget

Facturationdes services

Gestion

compétences

Organisation

CONTROLEUTILISATEURS

PRODUCTION

FOURNITURE DE SERVICES DEVELOPPEMENT DE SOLUTIONS

HELP D

ESK GESTION

DES

INCIDENTS

Gestion desproblèmes

Gestion deshabilitations

Gestiondesdemandes

Gestiondesconfigurations

Gestion desversions

Gestion deschangements

Etudes & Développement

Test & Qualification

Maintenancedes applications

Administration des données

Exploitation & maintenance systèmes

Exploitation& maintenanceréseau

Fournisseurs

Budget

Com

ptabilitéAchats

Organisation

Formation

Sourcing

Exploitationdesapplications

La DSI en tant que pollueur direct ou indirect La DSI en tant que fournisseur de solutions et de technologies

Oresys©

1. Stratégie informatique : intégrer des objectifs et un chapitre Green IT dans le schéma directeur2. Urbanisme et Architecture du SI : promouvoir une architecture flexible, agile, durable permettra des solutions et des processus moins

énergivores.3. Arbitrage des projets : ajouter des critères d’arbitrage relatifs à la contribution du projet à la réduction de l’empreinte environnementale et à la

politique Développement durable de l’entreprise. 4. Politique Systèmes : choisir les architectures, matériels et logiciels qui optimisent la consommation énergétique.5. Processus : outillage des processus de l’entreprise (système de workflow)6. Développement de solutions : mise en place de système de comptabilité carbone, de dématérialisation…7. Exploitation et maintenance réseau : mise en place de solutions de vidéo-conférence, de travail à distance…8. Achats : mise en place d’une politique d’achats de matériels « verts »

a. Indicateurs/tableaux de bord de pilotage : suivi de l’impact des activités de l’entreprise sur l’environnement (empreinte carbone, tableau de bord DSI (papier, énergie…))

b. ressources : mise en place d’une nouvelle organisation des ressources humaines et matérielles de la DSI (réduction papier, déplacements du personnel…)

c. Conventions de services : inclure des critères et indicateurs liés au green IT (par exemple sur les consommables…)d. facturation des services : évoluer vers une refacturation/comptabilisation développement durablee. Fourniture de services : mettre en place un SI de la DSI qui dématérialise les échanges et réduit les impacts f. Exploitation et maintenance des systèmes : contrôle et maîtrise de la consommation énergétique des datacenterg. Exploitation des applications : outiller avec des dispositifs de surveillance et des logiciels de virtualisation

Illustrations de l’impact du Green IT sur le métier de la DSI

Quoi de neuf Docteur ?

27IT-expert n°85 - mai/juin 2010

Quelles motivations poussent les projets Green IT ?

pour déployer et maintenir des projets Green it, l’entreprise doit y trouver son compte, y être contrainte, ou encore puiser une motivation dans ses valeurs ou sa communication. on distingue généralement les moteurs suivants dans les projets Green it :1. La mise en conformité par rapport à la règlementation européenne ou autre (ex : mise en œuvre

de la directive reacH dans les grands groupes industriels pour la traçabilité des substances environnementales dangereuses) ou l’anticipation de la règlementation (ex : la mise en place de démarche Hqe et de projets smart Grid (réseau de distribution d’électricité « intelligent ») par les acteurs de la construction et des travaux publics).La commission européenne est aujourd’hui le principal « producteur » de règlementation environnementale dans le monde, et une grande partie des autorités règlementaires de par le monde s’inspire de ses mécanismes ou directives.

2. Les opportunités de réduction des coûts et de performance économique (ex : dématérialisation des factures chez Bouygues ou au ministère des finances, dématérialisation des relevés bancaires à la Bnp paribas).

3. La volonté d’inventer de nouveaux produits ou services différenciant afin de profiter d’une opportunité Business ou d’améliorer l’image de la marque auprès de ses clients (ex : Écocomparateurs de la sncf, notation environnementale des produits d’épargne de la banque crédit agricole).

4. L’appartenance du développement durable au cœur de la stratégie de l’organisation avec un engagement social et environnemental fort. cette stratégie se décline alors en objectifs opérationnels et projets auxquels le si est associé. L’engagement des grandes entreprises sur la voie de la neutralité carbone est un exemple : (ex. HsBc, danone et d’autres grandes entreprises).

5. L’impulsion collective et les changements culturels qui s’accompagnement d’un changement des habitudes de travail (ex : projets de mobilité, télé travail et web-conférences).

6. Une demande d’un engagement plus fort de l’entreprise sur les enjeux environnementaux qui peut venir soit de l’interne (les salariés), soit de l’externe (les clients, éventuellement relayés par les médias, les onG ou les voix politiques). Généralement, la dsi ne sera que l’un des rouages des programmes d’actions environnementales qui pourraient être lancées par l’entreprise.

dans tous ces cas, comme pour l’arbitrage de tout projet informatique, une justification économique reste l’élément clé pour mener à bien les projets « étiquetés Green it ».

Les sponsors de ces projets sont le plus souvent la direction générale poussée par la stratégie de l’entreprise. une partie de ces initiatives est toutefois à mettre à l’actif du dsi dans un mode proactif vis-à-vis du reste de l’entreprise.

au sein des grandes entreprises publiques et privées, les avancées environnementales de l’it ont souvent été initiées par les départements développement durable. ils se sont généralement traduits par des projets concrets relatifs à la réduction de la consommation de papier, au recyclage du matériel, à la mise en place d’alternatives sur les déplacements des collaborateurs, aux solutions de télétravail et de mobilité…

Le sujet « Green it » commence à être identifié comme un sujet à part entière. on constate aujourd’hui l’émergence d’un nouveau métier au sein des grandes dsi : le chef de projet Green it. ce dernier peut jouer plusieurs rôles : correspondant si et collecteur d’information pour le directeur développement durable, chef de projet agitateur d’idées ou coordinateur des actions environnementales de la dsi, responsable de programme (programme Green computing chez axa technology services, Greening it program chez Bnp paribas…), etc.

28 IT-expert n°85 - mai/juin 2010

La maturité des organisations sur le sujet reste toutefois très variable selon les secteurs et leur sensibilité au développement durable. parmi les mesures au plus fort potentiel de réduction de l’empreinte écologique, on peut citer : • la dématérialisation (visioconférence, télétravail et e-commerce),• l’optimisation des consommations électrique en heures de pointe (pilotage à distance du

chauffage et des équipements domestiques (« smart home », recharge « intelligente » des véhicules électriques),

• l’optimisation des transports (optimisation des réseaux logistiques professionnels, aide à la conduite des véhicules, tic embarquées pour permettre le développement du « paiement au kilomètre » (de l’assurance au kilomètre jusqu’à l’autopartage type autolib’).

Globalement, les réalisations concrètes restent encore modestes, mais les économies réalisées et l’efficacité de certaines solutions Green it semblent conforter une demande croissante de la part des entreprises sur le sujet.

Les acteurs de l’univers « Green IT »

pour aider les entreprises et organisations à prendre en compte le sujet Green it, des acteurs émergent sur ce secteur en cours de structuration.

© ORESYS

DSI

INFRASTRUCTURES

EXPLOITATION

Constructeurs

Fournisseurs d’énergie

Infogérant

Directions métiers

Direction Générale

Personnel de l’entreprise

PRESSION

Les institutionnels de la Fonction SI

Clients / Engagement RSE / Parties prenantes / Lobbying

Le Règlementaire ou Législateur

DEVELOPPEMENT

LES

HOMMES

Autres prestataires

Editeurs

Cabinets de conseil TIC et DD

Les principaux acteurs de l’univers Green IT

Quoi de neuf Docteur ?

29IT-expert n°85 - mai/juin 2010

Les fournisseurs (de matériels, de logiciels, de conseil et d’expertise…)• Lesconstructeurssontlespremiersacteursàs’êtreemparésdusujetGreenIT.Regroupésdans

des groupes de travail comme le Green Grid, ils ont participé à la création d’un marché Green it sur le matériel aujourd’hui mature comme en témoigne l’usage de l’indicateur PUE (Power Usage Effectiveness) qui mesure l’efficacité énergétique des équipements informatiques. L’abondance des projets et de littérature sur la consommation énergétique des matériels et datacenters est de leur fait.

• Les éditeurs de logiciels sont également dynamiques. on peut segmenter ce marché de la façon suivante :

- Les solutions spécifiques de collecte de données et de système de reporting (enablon, verteego, tennaxia…),

- Les logiciels de virtualisation, d’exploitation, de réseau… - Les logiciels d’optimisation du poste de travail (avitis…), - Les logiciels de mesures de l’empreinte de la dsi, de bilan carbone de l’entreprise (mettant en

œuvre les méthodes de calcul ademe ou autres), - Les solutions de travail à distance, Webex, plateforme collaborative 2.0…- Les plateformes collaboratives qui agissent par pédagogie et partage de bonnes pratiques

permettent d’agir sur l’usage et les comportements (carbonHub…). À noter que ces dernières peuvent être très efficaces du fait du mouvement citoyen qui se met en place autour du développement durable et du Green it.

• LescabinetsdeconseilenTICet/ouDéveloppementdurablequiapportentefficacitéetconseildans ce marché en ébullition.

Les institutions et associations de la fonction informatique• EnFrance,leSyntec Informatique a mis en place un groupe de travail sur le Green it à l’origine de

la parution de deux livres blancs (dématérialisation, télétravail). • LeCIGREF est à l’origine d’un outil d’auto-évaluation de l’écoresponsabilité du si. Le monde de

l’informatique français est en cours de structuration autour du sujet Green it.

Les législateurs français, européens ou internationauxLe Green it est né et est tiré par la règlementation. Le facteur de dynamisme du secteur n’est pas que le reflet des fournisseurs, éditeurs et cabinets de conseil souhaitant créer un nouveau marché. ce marché existe (ou existera) du fait des nouvelles contraintes règlementaires portées par les politiques et les citoyens.

Le rôle du législateur s’est avéré et reste essentiel dans la structuration de l’univers Green it. Au niveau européen, par exemple, certaines directives majeures contraignent les entreprises à se transformer, à définir et outiller de nouveaux processus métier. La dsi intervient pour créer les nouveaux outils de tracking et de consolidation/reporting développement durable, pour modifier/créer de nouveaux processus (par exemple certains simples d’alerte éthique, d’autres très complexes). parmi ces réglementations certains processus si sont concernés comme le suivi du cycle de vie du matériel qui doit inclure la fin de vie et recyclage.

30 IT-expert n°85 - mai/juin 2010

trois directives majeures vis-à-vis de la dsi donnent presque systématiquement lieu à des projets dans les entreprises : • DEEE (déchets Équipement électrique électronique): enlèvement et traitement des déchets

d’équipements électriques et électroniques professionnels et modalités de traitement de ces déchets (pour tous les équipements fonctionnant avec une prise électrique, une pile ou un accumulateur) – décret n°2005-829 du 20 juillet 2005

• RoHs (restriction of the use of Hazardous substances in electrical and electronic equipment) : limitation de l’utilisation de 6 substances dangereuses dans les équipements électriques et électroniques – directive 2002/95/ce

• Reach : enregistrement, évaluation et autorisation des produits chimiques – règlement du 18/12/2006

À l’échelle française, au titre de l’engagement national pour l’environnement issu du Grenelle de l’environnement, une prochaine étape d’ici à 2011 pourrait être l’obligation pour les entreprises de plus de 500 personnes et les collectivités territoriales d’élaboration d’un bilan d’émissions des gaz à effet de serre. début mai 2010, les suites du Grenelle de l’environnement sont discutées par les députés à l’assemblée nationale, notamment à la suite de la parution du rapport du député michel Havard sur l’obligation d’élaboration d’un bilan d’émissions des gaz à effet de serre. La dsi serait alors un partenaire privilégié pour l’application de cette règlementation.

il est clair aujourd’hui que la règlementation environnementale se fera de plus en plus contraignante dans les années à venir, en europe ou ailleurs.

Conclusion

Le Green IT - des projets au centre des préoccupations Développement durable des entreprises

© ORESYS

ENTREPRISES

DSI

Pression réglementaire

Innovation

Réglementaire

Opportunité businesss

Clients

Coûts

1. Diagnostic Empreinte Environnementale

2. Plan d’action

Proposer des solutions / outils innovants

3. Mesure et suivi

Proposer des outils de reporting et de mesure

Pour l’entreprise et pour la DSI

Quoi de neuf Docteur ?

31IT-expert n°85 - mai/juin 2010

Le décalage peut paraître important entre le « bruit » médiatique autour du Green it et les réalisations concrètes dans les entreprises. reste que la problématique du développement durable est devenue incontournable dans les objectifs et les modes de fonctionnement des entreprises en france, et plus largement en europe.

selon une étude du cabinet BcG de janvier 2009, l’usage des TIC serait indispensable pour mettre en place les nouvelles solutions dans les secteurs où l’essentiel des réductions d’émissions de Gaz à effet de serre (Ges) est possible. il pourrait contribuer à un tiers de l’objectif de réduction national d’ici 2020.

La capacité de la dsi à réduire sa propre empreinte environnementale n’adresse qu’une partie de la problématique (même si elle est non négligeable). Le véritable enjeu réside dans la capacité des dsi à accompagner la transformation des entreprises vers une performance à la fois économique et environnementale, une performance… durable.

avec le durcissement des règlementations et les enjeux économiques qui peuvent être atteints grâce à des solutions it, la dsi a l’opportunité de jouer un rôle clé dans les entreprises autour du Green it, pour ces prochaines années.

sujet de mode, le Green it va devenir une préoccupation majeure. il impacte non seulement la dsi et l’entreprise mais également les clients et les partenaires externes. n

François-Xavier Chenevat,responsable de l’activité développement durable

Arnaud Mestre,consultant en charge des offres Green it

Érik Ghesquière,directeur associé du cabinet, depuis plus de 25 ans en conseil auprès des directeurs du système d’information

Acteur majeur du conseil en management et organisation, Oresys est une société indépendante de 230 consultants basée à Paris, Lyon,

Bruxelles qui aide ses clients à piloter leurs activités, améliorer la performance et mettre en œuvre leurs projets de transformation.

ORESYS intervient sur toutes les dimensions : métiers, organisation, processus, système d’information, accompagnement du

changement.

Site web : http://www.oresys.eu/

32 IT-expert n°85 - mai/juin 2010

Le web sémantique :la voie royale pour gérer l’information ?À l’heure où l’on commence à parler du Web 3.0, le web sémantique

revient sur le devant de la scène. malheureusement dix ans après

avoir été lancé par Tim Berners-Lee, force est de constater que le

web sémantique est loin d’être une réalité. Cependant s’il a été

initialement conçu et imaginé pour une utilisation dans le cadre

du Web, le web sémantique, mais surtout les technologies qu’il

sous-tend, intéresse de plus en plus les organisations en quête

d’interopérabilité et d’automatisation plus importante de la gestion

de leurs informations.

Comment ça marche ?

33IT-expert n°85 - mai/juin 2010

L’agent logiciel au coeur du système

aujourd’hui, le Web est exploité par des individus qui recherchent des informations via des moteurs de recherche et qui exploitent eux-mêmes les résultats. demain, le Web devenu sémantique

sera exploité en priorité par des machines et des agents logiciels, qui traiteront eux-mêmes les questions posées par les individus pour leur apporter le résultat le plus pertinent.

Comment l’intelligence vient à l’agent

Qu’est-ce qu’un agent ?il est difficile de donner une définition du terme d’agent tant la notion même d’agent reste ambigüe. non seulement ce terme est utilisé pour désigner des applications qui sont souvent très différentes, mais aussi de nombreuses communautés venant d’horizon divers utilisent les agents pour des applications très différentes les unes des autres.

dans cet article, la définition qui correspondra le mieux est donnée par Jacques ferber (dans « Les systèmes multi-agents : vers une intelligence collective », intereditions paris, 1995) : « Onappelleagentintelligentuneentitéréelleouabstraitequiestcapabled’agirsurelle-mêmeetsursonenvironnement,quidisposed’unereprésentationpartielledecetenvironnement,qui,dansununiversmulti-agents,peutcommuniqueravecd’autresagentsetdontlecomportementestlaconséquencedesesobservations,desaconnaissanceetdesinteractionsaveclesautresagents. »

Structure d’un agentLa figure suivante présente la structure simplifiée d’un agent intelligent.

un agent intelligent évolue dans un environnement. il doit être en mesure de recevoir des informations de cet environnement (par des récepteurs) et d’agir sur ce même environnement (par des effecteurs) suivant un comportement établi à partir des observations et du raisonnement de l’agent.

Les modules de communications sont primordiaux, d’autant plus que l’environnement est constitué d’autres agents avec lesquels l’agent peut coopérer pour atteindre son objectif.

Caractéristiques d’un agentLa recherche sur les technologies d’agent est relativement récente. de ce fait, elle est en perpétuelle évolution et les approches se multiplient. toutefois, nous pouvons identifier quelques caractéristiques qu’un agent doit posséder pour qu’il puisse être qualifié d’agent intelligent.

AutonomieL’agent doit pouvoir prendre des initiatives et agir sans intervention de l’utilisateur. car, ce qui le distingue fortement d’un autre type de logiciel tient dans son objectif spécifique et prédéfini qui lui confère son autonomie.

Capacité à communiquer et à coopérerL’agent doit pouvoir échanger des informations plus ou moins complexes avec d’autres agents, avec des serveurs ou avec des humains.

Capacité à raisonner, à réagir à leur environnementL’agent doit être capable de s’adapter à son environnement (qui peut être composé d’autres agents, du web en général ou des utilisateurs) et aux évolutions de celui-ci. cette adaptation doit s’appuyer sur l’analyse de l’environnement extérieur.

MobilitéLes agents doivent pouvoir être multi-plateformes et multi-architectures. ils doivent pouvoir se déplacer sur le réseau où ils accomplissent des tâches sans que l’utilisateur ait le moindre contrôle sur celles-ci.

AGENT

Récepteur Effecteur

Intelligence

Environnement

34 IT-expert n°85 - mai/juin 2010

Grâce au web sémantique, proposé initialement par le W3c, le Web va devenir un espace d’échanges d’informations entre individus et machines, donnant accès à un très grand volume d’informations, et fournissant les moyens de gérer ces informations.

À la différence du Web que nous connaissons aujourd’hui, le web sémantique permettra aux utilisateurs de se décharger d’une bonne partie de leurs tâches de recherche, de construction et de combinaison des résultats.

cependant, pour qu’une machine puisse traiter l’énorme volume d’informations disponibles sur le Web, et donc fournir une aide importante aux utilisateurs, elle doit être caractérisée par une capacité accrue à accéder aux ressources et à raisonner. en d’autres termes, elle doit posséder un minimum d’intelligence.

aujourd’hui il existe sur le Web, des moteurs d’indexation et de recherche, des procédures d’extraction et d’analyse d’information, qui lui confère une certaine intelligence. toutefois, cette intelligence est beaucoup trop rudimentaire pour pouvoir satisfaire aux conditions du web sémantique.

en effet, nous n’avons pas encore la possibilité d’exploiter des connaissances pour une gestion plus efficace des informations : recherche par le contenu des documents, raisonnement, résolution de problèmes, etc.

Le web sémantique a donc la lourde tâche d’apporter des solutions et donc des outils pour résoudre ce problème majeur.

Cinq défis majeurs à relever

Le web sémantique est d’abord une nouvelle infrastructure devant permettre à des agents logiciels d’aider plus efficacement différents types d’utilisateurs dans leur accès aux ressources sur le Web qu’il s’agisse de sources d’information et/ou de services. pour y parvenir opérationnellement, le web sémantique doit relever plusieurs défis :

La gestion de la diversité des utilisateurs, des contenus et des moyens d’accès• CommentrendreleWebréellementaccessible?• Commentcombinerefficacementlesdifférentsmédias

disponibles sur le Web ? • Commentadapterlescontenusauxdifférentsmoyens

d’accès : réseaux et terminaux ?

La gestion des modèles de représentation des connaissances• Commentaboutiràunconsensussurlesdifférents

langages de représentation des connaissances ou sur les ontologies utilisés ?

• Commentassurer,delamanièrelaplusautomatiquepossible, l’interopérabilité et les transformations entre les différents formalismes et les différentes ontologies ?

La manipulation de documents multimédia• Commentreprésenterlecontenusémantiqued’images,

de sons ou de vidéos ?• Commentannoterautomatiquementdesimages,

des sons ou des vidéos pour en améliorer la recherche d’informations ?

La gestion de la distribution• Commentgérerlesdifférentesarchitectures:services

distribués, architectures peer-to-peer, agents mobiles, architectures Grid, etc. ?

• Commentgérerlesproblèmesdesécuritésous-jacents?

La gestion intelligente des services• Commentprendreencomptelasémantiquedansla

description, la découverte, la sélection et la composition de services ?

• Commentpermettreuneplusgrandepersonnalisation et adaptation à l’utilisateur de ces services ?

pour relever efficacement ces défis, l’idée principale du web sémantique repose sur la séparation des informations de leur présentation pour en faciliter la gestion et le traitement. ces opérations sont d’autant plus simples que les ressources sont identifiées de manière unique et organisées autour d’une ontologie.

concrètement, le web sémantique peut être vu comme une infrastructure au sein de laquelle chaque ressource est couplée à des métadonnées, définies à l’aide de langages qui permettent de décrire les ressources ainsi que les relations qui les lient à l’aide de marqueurs sémantiques.

ces langages constituent un socle pour définir des ontologies, entités indispensables pour faciliter l’exploitation automatique ou semi-automatique du contenu par un ordinateur tout en conser-vant la signification du contenu pour les êtres humains.

Le web sémantique vise l’automatisation et non la compréhension !La vocation première du web sémantique est de faciliter la communication entre machines et agents logiciels. Il ne s’agit en aucun cas de traiter du langage naturel qui est la vocation du Traitement automatique du langage (T.A.L.).

Schématiquement, le web sémantique cherche à associer une structure à l’information non structurée pour en faciliter le traitement.

Comment ça marche ?

35IT-expert n°85 - mai/juin 2010

Des langages à la base des échanges

différents langages de niveau de complexité croissante sont proposés afin de mieux exploiter, combiner et raisonner sur les contenus des ressources accessibles.

un aspect central de l’infrastructure est sa capacité d’identification, de localisation et d’accès aux ressources de façon simple, robuste, et efficace. cet accès repose sur la notion d’URI (uniform resource identifier) qui permet d’attribuer un identifiant unique à un ensemble de ressources. L’application la plus connue du concept d’uri est l’urL (uniform resource Locator).

La notion d’uri est à la base même du langage RDF (resource description framework) qui constitue le deuxième élément important du web sémantique : un langage pour décrire le contenu des documents/ressources, pour associer une sémantique à ces descriptions, et des moteurs d’inférences pour les manipuler.

une caractéristique importante de ce langage est d’être systématiquement exprimable et échangeable dans une syntaxe XML. ceci permet de bénéficier de l’ensemble des technologies développées autour d’XmL : XmL schemas, outils d’exploitation des ressources XmL (bibliothèques Java, etc.), bases de données gérant des fichiers XmL.

cette approche « en couche » présente deux bénéfices majeurs :1. elle permet une avancée progressive et graduelle dans

les processus de standardisation et d’acceptation par les utilisateurs.

2. elle sépare bien les langages en fonction de leur complexité. ainsi, cette approche doit permettre de disposer du langage au bon niveau de complexité, celle-ci étant fonction de l’application à réaliser.

Les vocabulaires s’affinent : rDF, rDFS, oWL et SPArQL

RDF est au cœur des recommandations du W3c en matière de web sémantique. il constitue l’élément de base pour l’échange de données, car il possède une syntaxe robuste est simple pour décrire les documents.

L’objectif initial de rdf était de représenter au mieux des métadonnées pour en faciliter l’exploitation. rdf a permis par exemple d’exprimer de larges vocabulaires, comme le catalogue de produits unspsc (united nations standard products and services code). de manière plus générale, rdf permet de représenter le Web comme un ensemble de ressources caractérisées par un identifiant, un nom, des attributs typés, et reliées entre elles par des liens étiquetés « sémantiquement ».

Les spécifications de rdf proposent un système orienté-objet de classes formant un schéma de données caractérisé par des triplets obéissant à une sémantique formelle universelle. ces triplets sont de la forme (sujet, prédicat, objet) autrement dit (chose, propriété, valeur) ou encore (ressource, métadonnée, valeur) ou tout simplement (sujet, verbe, complément).

rdf définit un modèle de données abstrait, indépendant de toute syntaxe ou mode de stockage des données. rdf est aux données, ce que HtmL est aux pages Web.

La simplicité de ce modèle peut être une des clés de son acceptation, même s’il peut faire l’objet de nombreuses critiques comme l’impossibilité de définir des hiérarchies de classes et de propriétés. pour remédier à ce problème, le langage RDFS (rdf schema) a été créé.

mais pour décrire et définir des ontologies structurées, l’utilisation rdfs n’est pas suffisante. Le W3c préconise l’utilisation du langage OWL (ontology Web Language) qui n’est rien d’autre qu’un vocabulaire XmL basé sur rdf.

User Interface & Applications

Trust

Proof

Unifying Logic

QuerySPARQL

Ontology:OWL

RDFS

Rule:RIF

Data interchange:RDF

XML

URI/IRI

Cryp

to

36 IT-expert n°85 - mai/juin 2010

Le principe d’oWL est de fournir des règles et des contraintes logiques entre les triplets définis en rdf de façon à assurer une interconnexion entre chaque élément. en d’autres termes, le langage d’ontologie oWL sert à décrire des classes et leurs relations, lesquelles sont inhérentes aux documents et applications Web. oWL constitue dès lors le ciment du web sémantique, car il donne la cohérence nécessaire aux imbrications formalisées en rdf.

au final, l’intérêt de l’existence d’ontologies produites à partir du même standard repose sur la possibilité d’une intégration plus riche et garantit l’interopérabilité des données au travers des frontières applicatives.

dans un contexte « métier », une ontologie décrite avec oWL peut également servir à énoncer des règles métiers, qui viennent décrire les mécanismes d’un processus, propre à l’entreprise.

dernier élément clé du web sémantique : sparqL (query Language for rdf) le langage de requête rdf, maillon essentiel dans la manipulation des données. s’apparentant sqL, le langage de requête des bases de données relationnelles, sparqL permet d’interroger n’importe quel élément d’un triplet rdf pour extraire l’information recherchée.

Du web à l’entreprise

d’un point de vue opérationnel, force est de constater que le web sémantique est loin d’être une réalité même si les premières applications sont aujourd’hui disponibles comme les microformats.

en revanche, les technologies du web sémantique intéressent de plus en plus les entreprises, car elles leur offrent de nombreuses opportunités. en effet, l’utilisation des ontologies offre trois avancées majeures : des possibilités de recherche améliorées, une automatisation des tâches possibles bien plus importantes et surtout une interopérabilité des systèmes que nous allons présenter dans les paragraphes suivants.

microformats, premières applications du Web sémantique

L’objectif des microformats consiste à intégrer au cœur des documents HtmL des éléments sémantiques afin de faciliter l’échange d’informations entre machines.

pour y parvenir, les microformats apportent des marqueurs sémantiques dans les attributs HtmL classiques.

côté usage, les microformats servent aujourd’hui à décrire des données liées à la personne, comme son profil, son carnet d’adresses, l’agenda ou encore les données liées aux coordonnées géographiques. des informations susceptibles d’être traitées par une autre application en ligne, échangées, ou tout simplement sauvegardées.

il existe aujourd’hui un certain nombre de microformats qui fournissent des marquages spécifiques :• hCard:pourl’échanged’informationsliéesaux

contacts • hCalendar:pourlalesévénements• hResume:pourladescriptiondesCV• XFN:pourformaliserlesrelationsentrepersonnes• hReview:pourlescritiques

de nombreux sites importants utilisent les microformats : flickr, technorati, ice rocket, meet-up, .mac…

Améliorer la rechercheLes ontologies offrent des capacités de recherche très puissantes. en effet, l’objectif d’une ontologie est de modéliser les différents concepts d’un domaine et surtout de définir les liens qui existent entre ces concepts. chaque élément des documents qui utilisent cette ontologie possède une représentation sémantique. de ce fait, il est beaucoup plus facile d’effectuer des recherches complexes constituées d’éléments possédant une relation sémantique.

par exemple, la recherche des dirigeants des entreprises pharmaceutiques européennes est beaucoup plus simple à l’aide d’une ontologie, car celle-ci décrit les liens qui existent entre un dirigeant et une entreprise, entre une entreprise et un secteur d’activité, etc.

Simplifier l’automatisationchaque élément des documents étant représenté grâce à une ontologie (la machine est capable de connaître leur signification et les relations qui les lient), il devient très facile d’automatiser certaines tâches grâce à des algorithmes d’inférence.

L’inférence est un processus qui permet de produire de nouvelles informations à partir d’autres informations tenues pour acquises à partir de règles formelles.

OWL

RDF schéma

XML schéma

XML

Unicode

Règles

Ontologies

Modèles de métadonnées

Modèles de documents

Documents structurés

Données brutes

MétadonnéesRDF

Comment ça marche ?

37IT-expert n°85 - mai/juin 2010

dans son expression la plus basique, l’inférence revêt la forme d’un simple mécanisme de « pattern matching », c’est-à-dire un mécanisme qui permet de comparer deux modèles et de les appareiller s’ils sont semblables. si par contre les informations fournies ne sont pas semblables, des mécanismes plus complexes, avec des chaînes de raisonnement plus importantes, peuvent être requis.

ainsi, les algorithmes d’inférence définissent des actions à réaliser en fonction des types de concepts et des relations existantes entre eux. en d’autres termes, on définit des tâches à partir des métadonnées, ensuite grâce à la description du document à l’aide de l’ontologie, on est en mesure d’exploiter les entités du document pour réaliser les tâches définies de manière totalement automatique.

De l’importance de l’interopérabilité

parmi les différents aspects informatiques, celui de l’intégration des systèmes d’information est sans doute l’un des plus importants. malheureusement, la plupart des organisations, au cours des années, ont multiplié les systèmes pour gérer l’information et la connaissance : G.e.d., bases de données, groupware, intranet, etc. au final, elles ont mis en place des systèmes autonomes et hétérogènes, possédant chacun un modèle de données spécifique.

Les efforts consentis sur les middlewares n’ont de véritables impacts que sur les processus et très peu sur les modèles de données. ceci handicape énormément les systèmes d’information visant à intégrer différentes sources de données qui doivent faire l’objet de développements spécifiques aussi coûteux que difficiles à réaliser et maintenir.

parmi les solutions possibles à ce problème, les technologies sur lesquelles repose le web sémantique semblent aujourd’hui être le moyen qui s’impose pour faciliter l’interopérabilité entre les systèmes d’informations de l’entreprise. Les ontologies fournissent les interfaces idéales entre l’information et les diverses applications qui souhaitent les utiliser à des fins de traitement. en effet, les ontologies offrent la possibilité de représenter et d’organiser la connaissance à l’aide d’un unique modèle de données commun à l’ensemble des applications de l’entreprise. elles offrent le moyen de mettre en place des référentiels métiers partagés sur lesquels vont pouvoir être adossées les connaissances et informations. de plus, les ontologies représentent un moyen efficace pour fédérer l’information ou du moins centraliser son référencement, quels que soient son format et sa localisation. Le web sémantique fournit ainsi une infrastructure facilitant l’intégration de sources d’informations hétérogènes.

d’un point de vue opérationnel, les technologies du web sémantique peuvent être utilisées pour la mise en place de hubs de connaissances dont le rôle est d’unifier et d’organiser l’accès aux différentes sources d’information disponibles dans l’entreprise. il s’agit en quelque sorte de systèmes de médiation

qui permettent aux utilisateurs d’avoir une vision partagée des informations et des connaissances de l’entreprise, malgré l’hétérogénéité de leurs sources. cette vision pouvant aussi correspondre à une vue plus abstraite et qualitative des données et donc plus signifiante pour l’utilisateur.

Un hub de connaissance permet de gérer un processus complexe d’accès aux connaissances provenant de sources hétérogènes :

1. sélection des sources pertinentes étant donnée une requête posée,

2. accès à ces sources pertinentes quels que soient leurs propres modalités et leur propre vocabulaire,

3. combinaison automatiquement des réponses partielles obtenues à partir de plusieurs sources de façon à délivrer une réponse globale.

prenons un exemple pour illustrer ces propos. supposons qu’un utilisateur pose la requête suivante : quels sont les spectacles à l’affiche à montpellier ce soir ? où ont-ils lieu ? quelles sont leurs critiques ?

imaginons qu’il existe deux sources d’information. La première, reposant sur des fichiers XmL, offre la liste des spectacles, leur type, leur nom, éventuellement les comédiens et les critiques. La seconde, reposant sur une base de données relationnelle, contient, pour chaque spectacle, le nom de la salle où le spectacle a lieu et son adresse exacte. La réponse à la requête devra être construite en interrogeant chacune d’elle et en combinant les résultats de l’interrogation de façon à offrir à l’utilisateur une réponse globale.

pour parvenir à ce résultat, la conception du serveur de connais-sances peut reposer sur une approche dite centralisée qui consiste à définir une ontologie qui regroupe l’ensemble des concepts et des relations modélisant le domaine d’application du système.

Sécutrité

Sécutrité

PersonnalisationOrganisationTexteAccès

Web Documents Groupware DWH

Index Métadonnées

Publication

38 IT-expert n°85 - mai/juin 2010

L’utilisateur pose alors ses requêtes dans les termes du vocabulaire structuré fourni par l’ontologie qui va établir la connexion entre les différentes sources accessibles.

ensuite, l’interrogation effective des sources se fait via des adaptateurs, appelés « wrappers » en anglais, qui traduisent les requêtes « abstraites » (l’intégration d’information repose sur l’exploitation de vues abstraites décrivant de façon homogène et uniforme le contenu des sources d’information dans les termes de l’ontologie) dans le langage de requêtes spécifique accepté par chaque source.

une autre approche, dite décentralisée, peut être envisagée. celle-ci consiste à considérer un groupe de hubs de connaissances ou chacun peut indifféremment jouer un rôle de serveurs de données ou de médiateurs avec ses pairs en participant de manière distribuée et collective au traitement des requêtes des utilisateurs.

cette approche autorise la recherche de données dans des sources non directement connectées aux sources du serveur interrogé.

cependant, de nouveaux problèmes apparaissent, notamment des problèmes liés à la connexion des différents systèmes mis en relation. en effet, il est indispensable de définir des correspondances sémantiques entre les ontologies manipulées par chacun des systèmes.

au final, le grand intérêt des hubs de connaissances réside dans leur capacité à intégrer l’existant.

Un bon début, mais peu de compétences

L’utilisation des technologies du web sémantique ouvre de nouvelles perspectives en matière d’interopérabilité des systèmes d’informations. cependant, les entreprises qui souhaitent se lancer dans la mise en place d’ontologies sur l’ensemble de leur système d’information peuvent se trouver confrontées à quelques difficultés.

en effet, il n’existe pas de méthodologie standardisée pour guider les entreprises dans la création d’ontologies. La création d’une ontologie est une affaire de spécialiste dans la mesure où il faut avoir des compétences à la fois dans le domaine à modéliser, en matière de représentation des connaissances et en linguistique. une pluridisciplinarité des compétences encore peu répandue.

et même s’il existe aujourd’hui des ontologies publiques dans un très grand nombre de domaines, encore faut-il qu’elles soient bien adaptées au contexte de l’entreprise… n

Gilles Balmisse,directeur associé Knowledge consult

Knowledge Consult est un cabinet spécialisé dans la mise en oeuvre de la gestion

des connaissances, du travail collaboratif, des réseaux, de la gestion des contenus,

de la veille ainsi que de la conduite du changement et des outils associés.

Site web : www.knowledgeconsult.com/fr/

Wrapper Wrapper

Hubde connaissances

Requête

Wrapper Wrapper

Wrapper Wrapper Wrapper Wrapper Wrapper Wrapper Wrapper

Hubde connaissances

Hubde connaissances

Hubde connaissances

Requête

Source Source Source Source Source Source Source

Livres

39IT-expert n°85 - mai/juin 2010

virtualisation en pratique

Les projets de virtualisation informatique se multiplient. Une tendance qui risque de perdurer et

même de s’amplifier. Et les technologies multiples (bien qu’assez proches) obligent les informaticiens

impliqués ou intéressés à bien appréhender les différences entre les solutions proposées. Correctement

traduit de l‘américain, cet ouvrage s’ouvre sur une explication des principes et des intérêts de la

virtualisation intéressant et bien illustré. Ensuite, il propose un panorama et une comparaison des

principales solutions existantes : VMware (Server et ESXi), Citrix XenServer, Microsoft (Virtual PC,

Hyper-V), VirtualBox de Sun…

La seconde partie illustrée de nombreuses captures d’écrans, des tableaux et des schémas, aborde

non seulement la virtualisation des serveurs et des postes de travail, mais aussi la virtualisation du

stockage ou des réseaux.

Après les considérations matérielles essentielles en comparant les offres des constructeurs (HP,

IBM, Dell, Sun, Assembleurs et même Cloud Computing), les auteurs se penchent sur la gestion de

ces infrastructures, point délicat qui a longtemps freiné un essor si prometteur en performance et

en productivité pour les entreprises. Très pratique, cette dernière partie aborde tous les aspects :

planification, déploiement, sécurité et postproduction. Un accompagnement pas-à-pas qu’apprécieront

autant les néophytes que les plus aguerris.

Un guide indispensable pour comprendre les enjeux et les technologies de virtualisation.

Virtualisation en pratiqueKenneth Hess, amy newmanÉditeur : pearson360 pages - environ 36 E

Gestion de projet agile

Dans la droite ligne des approches méthodologiques de développement rapide (RAD ou Rapid

Application Development), les méthodes agiles reprennent le concept d’itération et des rôles

spécifiques comme celui de « facilitateur » favorisant la discussion entre utilisateurs et informaticiens.

Ce dernier aspect est justement au cœur du succès actuel des approches comme Scrum, Lean ou

eXtreme Programming (sous-titres de l’ouvrage). En effet, le succès croissant des méthodes agiles

prouve combien cette « rupture » s’avère bénéfique pour la conduite de projets. Encore faut-il en

comprendre les ressorts.

Les conduites de projet traditionnelles consistent à recueillir les besoins et organisent de façon

généralement figée les étapes qui s’enchaînent. Les méthodes agiles visent plutôt à affiner la

définition des besoins au cours du projet, en se reposant sur la souplesse des équipes. Les auteurs

s’appuient sur leur longue expérience des projets informatiques pour expliquer comme « Recueillir

efficacement les besoins », « Planifier son projet », le suivre et en gérer les hommes. Puis l’ouvrage

aborde les approches agiles et les rôles des divers experts de ces méthodes. Le lecteur appréciera

le panorama des outils utilisables dans le cadre d’un projet agile.

Gestion de projet agile véronique messager rotaÉditeur : eyrolles272 pages - environ 30 E

40 IT-expert n°85 - mai/juin 2010

Depuis quelques années les solutions open source renforcent leur présence dans les entreprises à tous

les niveaux : logiciels internet, système d’exploitation, composants techniques (framework), ou encore

progiciels (ErP, Crm…). Pourquoi et comment décide-t-on de diffuser son code en open source ?

Ils diffusent leur code logiciel en open-source

Rubrique à brac

41IT-expert n°85 - mai/juin 2010

Les décideurs perçoivent de plus en plus les avantages à l’utilisation de logiciels open source : disponibilité, fiabilité, évolutivité, indépendance vis-à-vis d’un fournisseur unique, etc. et le « phénomène open source » a pris plus d’ampleur en quatre ans, faisant parfois basculer des pans entiers des systèmes d’information vers les logiciels open source.

au-delà des consommateurs de logiciels open source, qui sont les concepteurs de ces solutions (sociétés ou groupe de personnes) ?

on y retrouve diverses organisations : de grandes fondations mondialement reconnues, des sites internet autour du langage de programmation Java, quelques sociétés qui éditent des logiciels avec une version open source et une version supportée, et des sociétés qui créent des structures afin de répondre à leurs besoins spécifiques via la diffusion de logiciels en mode open source.

Les grandes fondations de l’édifice open source

par « fondations », il faut entendre « sites communautaires qui ont une existence légale », comme les « foundations » aux États-unis, les associations, les Gie, etc.

La fondation apache toute fondation est née d’un ou plusieurs projets. ainsi, la fondation apache est issue du projet de serveur internet apache en 1995. et le site Web apache.org est apparu en 1999. À l’origine, l’équipe était composée de 8 personnes. actuellement, la fondation est composée de centaines de membres et de presque autant de projets (plus ou moins actifs). Le site propose un mode de fonctionnement commun à tous les projets et un partage de valeurs autour de l’open source, basé une licence libre très tolérante.

quelques sociétés fondent leurs activités autour de la diffusion avec support de logiciels de la fondation : • TomcatavecSpringSourceetProgressSoftware• ServiceMixavecProgressSoftware• MavenetSonatype

mais, la fondation apache vit surtout grâce à ses communautés qui sont composées de personnes physiques qui contribuent (sur leur temps libre ou dans le cadre professionnel) aux projets : contribution de code source (committers en anglais), soumission d’anomalies, testeurs, etc. apache dispose des communautés les plus actives et les plus développées dans le monde du langage de programmation Java.

La fondation Eclipse Le projet eclipse a été initié par la société iBm afin de doter la communauté Java d’un outil de développement intégré (ide en anglais). ceci visait à favoriser l’adoption de ce langage par ses clients et à augmenter la taille de la communauté Java. toutefois, iBm disposait déjà du savoir-faire autour de son outil visual age qu’il déclinait pour permettre le développement dans plusieurs langages : cobol, Java, etc.

L’objectif du projet eclipse consiste à fournir un framework de développement pour l’industrie informatique dont l’outil de développement java intégré. ensuite, cette plate-forme est partagée avec d’autres acteurs (y compris concurrents) pour rationaliser les coûts. et, à leur tour les autres membres vont rejoindre le projet.

pour comprendre la réussite de la fondation eclipse, il suffit de constater la présence des plus grands acteurs informatiques parmi ses très nombreux membres. La fondation eclipse a stimulé la création d’outils autour du monde Java et au-delà, contribuant activement à la croissance du marché informatique. sans eclipse, les entreprises développeraient -sans aucun doute- bien moins en langage Java. Le portefeuille « propriétaire » d’iBm autour d’eclipse est très riche, et contribue sensiblement à son chiffre d’affaires, en offrant des plug-ins (ajouts) qui facilitent la vie de ses clients.

Le site communautaire JBoss L’intérêt d’une démarche open source ne se limite pas au partage de code, mais tient aussi dans le fait qu’elle pérennise aussi un outil ou un concept grâce à un groupe d’utilisateurs.

ainsi, le site jboss.org offre tout l’outillage nécessaire autour de son serveur d’application JBoss. et les projets de la communauté s’étendent des composants de développements (framework) aux les outils de développements (JBoss ide est composé de plug-ins eclipse !), en passant par des outils intelligents (drools ou JBoss esB)… La communauté JBoss est extrêmement variée et fournit tout ce dont une entreprise a besoin pour développer du logiciel.La société JBoss (comme sa maison mère redHat) fait preuve d’un grand esprit communautaire : ses membres et leurs investissements font évoluer les projets. et la société JBoss emploie uniquement le chef de projet (projet leader) et quelques développeurs qui assurent le support des versions commerciales.

pourquoi des sociétés sont-elles prêtes à payer des abonnements de maintenance et de support (du service et non des licences) ? parce que cela leur permet d’obtenir en priorité de l’assistance pendant une durée importante (de 5 à 10 ans). essentiel lorsque l’on sait que dans la version « communautaire », seule la dernière version est maintenue. cela oblige quasiment les utilisateurs à adopter nécessairement la dernière version, même s’ils n’en ressentent pas le besoin.

de nombreuses personnes participent à ces projets sous forme de code source, tests, documentations… sans pour autant faire partie de la société Jboss/redHat.

Le site communautaire ow2 Le site communautaire ressemble beaucoup à la fondation apache. d’origine européenne, cette fusion des sites objectweb et orientware a pour objectif de fournir tous les outils de développement, et les briques de middleware (serveur d’application) au monde Java : un serveur d’application (Jonas), un esB (petals), des outils de processus métiers (Bonita), des outils de reportings (spagoBi) etc.

42 IT-expert n°85 - mai/juin 2010

quelques sociétés comme Bonitasoft ou petals link se développent rapidement, démontrant la validité économique du modèle open source, y compris dans l’Hexagone.

Les éditeurs open source

pourquoi un éditeur choisit-il dès le départ de diffuser son logiciel sous la forme d’une licence open source ? deux raisons principales se détachent pour expliquer ce choix : • Le marché n’est pas mûr pour ce type de produit. L’existence

d’un outil open source favorise son utilisation par un plus grand nombre d’utilisateurs. une fois son utilisation répandue, les offres de supports, de consulting et de formation peuvent se justifier.

• Ce type d’outil est déjà très présent sur le marché, et il s’agit de démontrer que ce logiciel apporte plus et mieux pour beaucoup moins cher, y compris dans une version supportée.

deux démarches illustrées par le moteur de règles drools de JBoss et l’outil etL de talend.

Le moteur de règles drools de JBoss il existe de nombreux outils autour de l’intelligence artificielle et des moteurs de règles. La complexité de ces outils ne simplifie pas leur prise main et leur installation, sans parler des coûts de licence qui les réservent à un marché de niche. Le projet open source drools a été placé sur le site codehaus.org. Les contributeurs de ce projet ont ensuite été recrutés par JBoss. en cinq ans, drools est passé du statut de simple moteur de règles à celui d’outil de management du cycle de vie des règles de gestion en entreprise. drools ne beneficie pas de la maturité de quelques outils propriétaires disposant de plus de 20 ans d’existence, mais il s’en approche. À l’origine, simple outil, drools s’est progressivement enrichi de multiples fonctionnalités, et s’est doté d’outils de mise en place évolués pour assumer des tâches plus complexes.

L’outil ETL de Talendil y a quelques années, le marché des etL était exclusivement dominé par quelques grands noms de l’informatique qui avaient le plus souvent racheté de plus petits éditeurs spécialisés. ces derniers avaient dans un premier temps convaincu de nombreux clients grâce au niveau de fonctionnalités avancé et à l’indépendance de leurs solutions face aux grands éditeurs.

dans ces conditions, difficile pour un nouvel arrivant de jouer sur l’indépendance de façon crédible. c’est pourquoi la société talend a innové en fournissant un etL open source de très grande qualité. aujourd’hui, il bouscule clairement les acteurs installés sur ce marché. en effet, talend offre des versions commerciales qui ajoutent des fonctionnalités d’entreprise (droit d’accès, partage de code, serveur exécution de batch, etc.). plus récemment, un outil de mdm est venu s’ajouter à l’offre existante et permet d’offrir une plate-forme logicielle qui vient prendre des parts de marché aux grands éditeurs du marché (iBm, oracle, etc.)

Les projets de partage des ressources

quelques sociétés décident de mettre en commun des ressources internes ou de créer une société commune pour des besoins informatiques. un mode de fonctionnement qui se répand à l’exemple des Gie informatiques en france. moins fréquent, certains vont jusqu’à en diffuser le code en mode open source.

Le projet capatincasa.com est un consortium de sociétés qui mettent en commun un framework Java pour faciliter le développement d’interfaces graphiques. un retour vers le « client lourd,java swing/applet java ». ce projet est orchestré par une personne rémunérée par les membres, et animé par des développeurs internes de ces mêmes sociétés. régulièrement, les membres se réunissent pour parler du projet et arrêter des décisions techniques. ce mode de fonctionnement original est mené à l’initiative des décideurs informatiques et repose sur des principes simples et pragmatiques d’efficacité autour d’une problématique simple de développement d’interfaces graphiques.

Le projet vaadin s’intéresse aussi au développement d’interfaces graphiques en Java, mais son modèle économique est différent. en effet, les membres confient à la communauté du projet le développement ainsi que la maintenance de leurs applications. en contrepartie, le groupement (qui est une société) fournit la couche technique et la maintient dans le temps. il s’agit en fait d’une couche technique de présentation proche du développement de clients lourds en java. toutefois, vaadin recours à un explorateur internet standard de type firefox. pour permettre la richesse événementielle d’un client riche, le framework vaadin génère du code Javascript qui s’exécute sur le poste client. cette démarche est assez proche du framework apache wicket. L’originalité du projet vaadin est de garantir une compatibilité du code métier dans le temps. avant 2007, le projet vaadin utilisait son propre framework Javascript comme moteur de rendu. puis il est passé à Google Web toolkit (GWt), sans modifier l’interface de programmation de son framework.

Rubrique à brac

43IT-expert n°85 - mai/juin 2010

dans ces deux exemples, la diffusion des composants en open source peut paraître secondaire. pourtant, il est au cœur de la stratégie visant à ne pas enfermer l’utilisateur dans une technologie propriétaire. L’objectif consiste à faire participer de nouveaux adhérents afin de pérenniser la solution mise en œuvre. plusieurs types d’adhésion sont possibles : • L’utilisateurpeutprendrelesocle,l’utiliseretyparticiper

sous une forme communautaire ; • L’utilisateursouhaitebénéficierdelaformationetduservice

dans le cadre de ses projets, voire du support et de la maintenance autour du socle ;

• L’utilisateurpeutconfierledéveloppementet/oulamainte-nance de ses développements à vaadin. ce dernier point représente une approche originale et peu répandue.

Pourquoi proposer son code logiciel en open source ?

pour des sociétés utilisatrices, la motivation essentielle pour mettre une partie de son portefeuille logiciel en open source doit viser un objectif concret et précis. proposer du code en open source sans réel objectif clairement défini ne mettra pas en valeur le logiciel et risque de créer des déceptions et désillusions.

Le monde de l’open source est souvent perçu comme un monde idéal et parfait. en réalité, il s’agit plutôt d’un écosystème : • trèsexigeant:ceciestaccentuéparlecôtétransparentdes

éléments techniques dont le code source, la documentation associée, etc. ceci diffère des logiciels propriétaires dont il est impossible de connaître le fonctionnement interne. seul le fonctionnement « boite noire » est possible. ce qui permet au seul éditeur d’améliorer le fonctionnement interne et son architecture lors des nouvelles versions.

• très«effetdemode»:ilfautêtreprésentdanslessalonsspécialisés, dans la presse, sur les bons blogs, etc. cela demande donc des ressources dédiées dont le seul objectif est d’animer et de maintenir le tissage de ce « réseau » pour permettre au projet d’être vu et reconnu. Les questions qui seront sans cesse posées : n’existe-t-il pas d’autres solutions sur le marché ? en quoi votre projet est-il différent ? pourquoi n’avez-vous pas cherché à vous rapprocher d’un autre projet ?

• decommunautés:Ilfautfairevivresacommunauté,recruterde nouveaux membres, animer les blogs, les forums, animer les canaux de chat (irc), etc. de plus, il faut disposer d’une équipe « core » qui permet un fonctionnement continu du projet. c’est la richesse et la motivation de sa communauté qui va permettre à un projet de durer et de s’étendre. il nécessite des équipes motivées et convaincues de la démarche.

Le projet candidat à la mise en open source doit déjà disposer d’une communauté interne importante et qui doit satisfaire aux critères du monde open source : • Unearchitecturetechniqueetlogicielledocumentéeetjustifiée,• Uncodesourcequisuitlesrecommandationsarchitecturales,• Destestsunitairesautomatisésetcompletspourpermettrede

valider la non-régression fonctionnelle lorsque de nouveaux contributeurs arriveront sur le projet,

• Unedocumentationquipermetaunouvelarrivantd’entrerfacilement dans le projet,

• Uneforgededéveloppementtypesourceforgepourpermettrele travail collaboratif,

• Desoutilsd’intégrationcontinueetdequalitépourpermettrede contrôler et de suivre la qualité du projet,

• Uneéquipeetunchefdeprojetsolidesdèsledépart,• Unevolontédelahiérarchiedefairevivreleprojetopensource

en plus du projet interne. ce point n’est pas à négliger, car il sera important dans le temps de conserver l’équipe dédiée au projet open source. d’autant qu’il faut du temps pour établir une communauté,

• Unefoisquelacommunautédémarre,ilfautadmettrequele projet suive des intérêts ou des chemins qui ne sont pas ceux que l’on aurait choisis pour un projet interne. ceci est notamment vrai pour les priorités dans la correction des anomalies ou dans le traitement des évolutions,

• Ilfautprévoirdèsledébutunepossibilitéde«supportpayant»pour permettre à certains, y compris en interne, de disposer des maintenances de versions finalisées.

Quelques pistes pour réussir

Le monde open source est riche en nouveaux projets. très peu survivent dans le temps par manque d’implication de leurs membres et par sous-estimation de l’énergie et des moyens à mettre en oeuvre. mettre en place un projet open source doit faire partie de la stratégie de l’entreprise ou de ses projet Les principaux points de réussite sont : • Lamiseenplacenécessitedeséquipestrèsmotivéesetqui

y voient un intérêt personnel important.• Lancerunprojetopensourceavecunegestiondeprojet

classique ne fonctionne pas. un chef de projet open source doit être un leader charismatique qui fédère une somme d’individualités, et qui s’entoure de personnes plus compétentes que lui sur de nombreux sujets. il doit être respecté par les membres de son équipe et de la communauté qu’il dirige.

• Unoutillageinformatiqueimportantdoitpermettred’auto-matiser un maximum de tâches.

• Leprojetdoitvivredansletempsetcelapeutdurerquelquesannées.

• Uneprésencedanstouteslesmanifestationsdumondeopensource s’impose pour offrir une vitrine à la communauté, et recruter de nouveaux membres et utilisateurs. n

Nicolas Héron,architecte J2ee, soa et moteur de règles au sein du groupe adéo, contributeur au projet drools