Posted on 12 Comments

Premières Leçons des Élections Présidentielles en Afrique en 2011

(Article paru dans la rubrique Perspectives Globales du Magazine “Courrier d’Afrique”, Numéro 41, Janvier 2012, Paris, France)

La rédaction de jeuneafrique.com a récemment publié une carte 2011-2012 des élections présidentielles et législatives en Afrique, grâce à une carte interactive actualisée en temps réel. Dans cette magnifique carte, on constate qu’après la Guinée, la Côte d’Ivoire, le Bénin, le Niger, le Nigeria et la Centrafrique, Sao Tomé e Principe, le Cap-Vert, la Zambie, le Cameroun, le Liberia et la RDC récemment, c’est désormais au tour du Sénégal (février 2012), du Mali (avril 2012), de la Sierra Leone (septembre 2012), du Ghana et du Kenya (décembre 2012), de Madagascar et de l’Angola (2012) d’organiser des scrutins présidentiels.

Jeuneafrique.com note également que des législatives étaient ou sont aussi au programme, soit en même temps que le scrutin présidentiel (Madagascar et RDC) soit de manière séparée. Ce fut le cas au Maroc (élections anticipées du 25 novembre) et en Côte d’Ivoire, et ce le sera bientôt en Guinée, en Algérie, au Burkina Faso, au Congo-Brazzaville. Un scrutin législatif en plusieurs phases a eu récemment lieu en Égypte, pays pour lequel l’élection présidentielle est prévue pour l’été 2012.

Les crises politiques en Afrique sont tellement sévères que nous irons jusqu’à puiser dans le lexique les expressions les plus dures pour condamner les actions des politiciens africains. Chaque élection sur le continent est un évènement à hauts risques qui suscite inquiétudes et désolation, comme l’ont montré la crise postélectorale ivoirienne et celle en cours en RDC. Dès lors, les Africains que nous sommes se posent des questionnements suivants :

Comment garantir que les futures élections en Afrique soient transparentes ? Comment éviter que le syndrome ivoirien, gabonais ou congolais se propage dans d’autres pays ? Comment épargner aux africains que nous sommes, des images humiliantes et choquantes de l’arrestation de Gbagbo et de sa femme (en maillot de corps, fatigués et décoiffés), diffusées en boucle dans les télévisions du monde entier le 11 avril 2011 ? Comment éviter le « traumatisme de Duékoué », ces massacres d’environ un millier d’ivoiriens perpétrés autour de cette localité, dans l’ouest de la Côte d’Ivoire ? Comment éviter ces violences meurtrières en RDC, au Liberia, ou au Gabon avant et après l’annonce des résultats des scrutins présidentiels ? Bref, quel est le modèle qui puisse faciliter la gestion des contentieux électoraux en Afrique ?

L’objectif de cet article est d’apporter des éléments de réponse à ces interrogations. Notre point de départ est la faillite bouleversante affichée dans la gestion des contentieux électoraux par toutes les parties prenantes dans chaque élection en Afrique. Nous allons plus loin aborder des domaines aussi variés et complexes comme le non-respect des compromis électoraux, l’exigence d’un nouveau leadership réflexif des « responsables » politiques africains y compris nos institutions sous-régionales et régionales, la problématique de l’informatisation des processus électoraux en Afrique, et le manque d’éducation à la paix en Afrique. Notre analyse rejoint les terrifiantes clairvoyances et prémonitions faites en 2004 par l’intellectuel camerounais le Professeur Joseph Mboui mais aussi les analyses éclairées du Docteur Eric Essousse dans Problématique de l’informatisation des processus électoraux en Afrique.

Opérations complexes aux enjeux multiples impliquant certains acteurs sociopolitiques, les élections constituent de nos jours le domaine privilégié où se nouent et se dénouent les contestations de toutes sortes, elles-mêmes porteuses de germes de conflits sociaux susceptibles de mettre en danger les fondements de la société. On comprend ainsi aisément que l’aménagement du processus électoral ne saurait méconnaître l’organisation d’un contentieux électoral adéquat. En d’autres termes que le processus électoral le plus achevé intègre tout à fait les mécanismes de résolution des conflits électoraux éventuels. Le vocable « contentieux » désigne, comme l’indiquent les collègues professeurs Jean Marie Auby et Roland Drago dans Traité de Contentieux Administratif, l’ensemble des règles régissant la solution des litiges par voie juridictionnelle. Par voie juridictionnelle et non par les armes !

Notre question dans cet article est de savoir comment éviter qu’une gestion approximative d’un processus électoral aboutisse à un drame national ? L’objectif est de dire : « Plus jamais ça ! » Ce qui s’est vécu en Côte d’Ivoire en 2011 est l’accumulation d’un amateurisme généralisé, révoltant, stupéfiant, de tous les protagonistes de ce dossier, conjugué d’une méconnaissance des principes de base dans la gestion des contentieux électoraux, fût-il on l’avoue, dans une situation de crise extrêmement complexe comme celle de la Côte d’Ivoire.

Pour un compromis électoral respecté

Beaucoup de problèmes observés dans la gestion des élections proviennent de ce que, non seulement l’application des lois électorales est controversée, mais souvent aussi, l’élaboration de celles-ci n’est pas le résultat d’un consensus ou compromis dans la classe politique. En effet, dans le domaine de l’élaboration des règles du jeu électoral, le principe de la majorité automatique pour faire passer les textes ne produit pas les effets escomptés dans leur application ; d’une part, du fait des multiples contestations des résultats des scrutins, d’autre part, du fait des élections qui relèvent d’un domaine délicat, celui de la conquête du pouvoir, laquelle soulève beaucoup de passions et des intérêts divergents. Aussi, dans cette matière, plus qu’ailleurs, la recherche du consensus ou à la limite de compromis solides, devrait être mise en œuvre, afin que ce qui départage les protagonistes ne repose que sur la différence des programmes proposés au peuple. Dans ce cas de figure où ce sont les programmes et les projets de société qui font la différence et non des avantages acquis sur les textes, les notions d’équité, de justice et d’impartialité s’imposent plus aisément et les résultats acquis peuvent être mieux acceptés ; car rien ne favorise la déstabilisation autant que la dictature des règles du jeu partiales et arbitraires.

En Afrique, les observateurs du jeu politique notent la tendance à favoriser les partis majoritaires ; ce qui braque les autres forces politiques et les pousse à des attitudes de crispation. Souvent aussi, l’on observe la manie à modifier les règles du jeu déjà établies, telle la révision constitutionnelle sur des questions fondamentales portant sur la durée du mandat présidentiel, le découpage des circonscriptions électorales, etc. Il se dégage par conséquent sur le continent généralement deux camps, aux conceptions fort opposées, en matière d’élaboration des règles du jeu électoral : d’une part, des pays qui privilégient le consensus ou le compromis; d’autre part, ceux qui font prévaloir la règle de la majorité.

Tous les observateurs politiques sont unanimes pour considérer que le point de départ de la crise ivoirienne est le non-respect des accords politiques signés à Ouagadougou le 4 avril 2007. La recherche du consensus ou du compromis sus-évoquée, requiert de la classe politique et de l’élite africaines dans son ensemble, courage, honnêteté, dépassement de soi, sens de l’intérêt général, vision, souci de s’inscrire durablement dans les valeurs universelles qui interpellent les sociétés d’aujourd’hui et de demain.

Les crises électorales en Afrique ou l’absence d’un leadership réflexif

Le magazine Time a consacré, dans sa livraison de juillet 2008, un long article à Nelson Mandela, à l’occasion du quatre-vingt-dixième anniversaire de sa naissance. Dans ce texte, Richard Stengel, journaliste américain, dessine les contours du leadership de l’ancien chef d’État sud-africain et propose d’en retenir huit caractéristiques proches de ce que j’appelle un leadership réflexif. L’action de Mandela pose la réflexivité comme caractéristique du développement de l’agir du leader. Ce rapport réflexif au monde fonde la perspective visant le mieux, l’efficace, l’efficient, l’explicite dans l’action du leader politique. La réflexivité désigne une activité de connaissance de l’acteur politique produisant discours et représentations de soi en contexte fondé sur l’introspection.

Au moment où on compte et pleure la mort des milliers de nos frères et sœurs (y compris nos enfants !) en Côte d’Ivoire et en RDC, tous ceux qui, de près ou de loin, ont été associées à la gestion de la crise ivoirienne, doivent avoir des remords et surtout des regrets d’un travail bâclé, d’un manque de leadership réflexif et d’une incapacité à prévoir et à gérer, par voie juridictionnelle, un différend né de l’élection contestée de novembre 2010. Cette observation est valable aussi bien pour les organisations africaines que pour la communauté internationale. Tant que cette dernière, par exemple, ne change pas d’approche dans la gestion des processus électoraux en Afrique et ailleurs, elle continuera à s’embourber dans des situations extrêmement complexes comme celle vécue en Côte d’Ivoire en 2011 !

La problématique de l’informatisation des processus électoraux en Afrique

L’informatisation d’un système électoral, du point de vue purement technique, revient simplement à appliquer les solutions informatiques à un processus électoral afin d’optimiser certaines de ses opérations. Elle peut être utile pour les activités suivantes : i) la planification, la gestion, la budgétisation et le maintien de dossiers; ii) le découpage des circonscriptions électorales ; iii) la communication d’information aux candidats, aux partis et aux électeurs; iv) la surveillance et la divulgation des contributions et des dépenses associées à la campagne ; v) l’inscription des électeurs sur les listes électorales et l’élaboration des cartes électorales ; vi) la vérification de l’identité des électeurs aux bureaux de vote ; vii) la gestion du vote des absents ; viii) l’enregistrement des votes, le dépouillement des bulletins et la transmission des compilations locales au bureau de compilation centrale ; et ix) la diffusion des résultats d’une élection. Suivant cette dialectique, le système électoral serait comme un autre système, les méthodes et les outils de conception et de développement des systèmes d’information étant, depuis belles lurettes, banalisés. Ce qui semble ne pas être le cas.

L’informatisation des systèmes électoraux doit donc être assujettie à une forte volonté politique, à un système de gestion et à une stratégie d’adaptation au changement qui consiste à instituer très tôt un processus de consultation avec tous les intervenants concernés, en faisant preuve de transparence et en évaluant objectivement les risques en regard des bénéfices. Beaucoup de problèmes observés dans la gestion des élections proviennent de ce que, non seulement l’application des lois électorales est controversée, mais souvent aussi, l’élaboration de celles-ci, y compris les règles de jeu électoral et donc l’informatisation, n’est pas le résultat d’un consensus de la classe politique.

Le projet d’identification de la population et de l’établissement des cartes électorales a été élaboré dans le cadre des accords politiques de Ouagadougou comme partie intégrante du processus de résolution de la crise ivoirienne. L’objectif de ce projet était de fournir au Gouvernement une liste électorale et une base de données complète de la population afin de distribuer à chaque citoyen ivoirien une carte nationale d’identité (11 millions d’euros), une carte de résidence pour chaque étranger vivant sur le sol ivoirien (à l’exception des ressortissants des pays de la CEDEAO (0,5 million d’euros), une carte électorale pour chaque citoyen en âge de voter (9 millions d’euros), et des listes électorales. Les sommes énumérées ci-dessus ne prennent pas en compte les 30 millions d’euros et les 187 millions de dollars qui auraient été donnés respectivement par le FMI et l’ONU au Gouvernement Ivoirien en 2008, en partie pour la réinsertion des combattants-rebelles du Nord.

Moi le chantre de l’informatisation des systèmes électoraux en Afrique, j’ai de la peine à dire que l’exemple ivoirien a montré les limites politiques de l’informatisation des systèmes électoraux. Comme disait un ami qui connait bien ce dossier « …même s’ils avaient eu un super système d’informatisation des processus électoraux…tout cela serait arrivé. En fait, ce sont les hommes qu’il fallait robotiser !». L’informatique est un outil que l’on met simplement au service d’un projet politique préalablement défini. Il s’agit de changer radicalement l’organisation de la gestion des processus électoraux, avec toute la complexité que cela implique. L’informatique doit être perçue comme un catalyseur des changements organisationnels des systèmes politiques.

Pour une éducation à la paix en Afrique

Les résultats de la plupart des consultations électorales en Afrique sont le fruit de l’arbitraire à cause de la manipulation des données, généralement par le pouvoir en place. Toutefois, ces graves manquements aux vertus démocratiques par nos dirigeants ne sont pas à confondre avec les récriminations de pure forme ou d’évidente mauvaise foi de quelque déloyal perdant qui chercherait coûte que coûte à se donner fière allure ou à amuser la galerie en bluffant ou en dénonçant des fraudes électorales fantaisistes. Les Africains se réjouissent, avec le peuple zambien, de la dernière manifestation de la vitalité de la démocratie dans ce pays et je tiens à féliciter le président élu, Michael Sataa, mais aussi et surtout son prédécesseur Rupiah Banda d’avoir accepté les résultats de l’élection présidentielle de septembre 2011, annoncés par le président de la Cour suprême.

Il est d’observation courante sur le continent que les vaincus des consultations organisées dans le cadre de l’expression du suffrage universel ou dans celui des formations politiques acceptent difficilement tels quels les résultats proclamés par les organes commis à cet office, soupçonnés ab origine d’une partialité pas toujours démontrée. Nulle surprise alors que les perdants remettent le verdict en cause à temps et à contretemps, si bien qu’une vive tension est souvent maintenue plus ou moins artificiellement dans le milieu concerné. On jette ainsi du discrédit sur l’ensemble du système électoral, ce qui nourrit les ruminations du camp adverse, acceptant tout aussi mal que sa victoire soit ternie, quand bien même il y aurait de légitimes motifs pour cela. Et un climat délétère s’installe dans le corps politique tout entier avec parfois des situations macabres comme en Côte d’Ivoire ou récemment en RDC.

C’est ce qui justifie que les leçons de civisme relatives au comportement à adopter après une consultation électorale, en cas de victoire comme en cas d’échec, soient l’objet d’une fréquente répétition. Les menaces ressenties par tous sur la survie même de l’espèce, au regard de la multiplication des foyers de tensions extrêmes post-électorales, poussent aujourd’hui à réserver un meilleur sort à tout ce qui touche à l’édification d’une paix générale dans notre continent. Il n’est donc pas étonnant d’entendre des voix autorisées, comme celle du Pape, qui a appelé à la paix dans les pays d’Afrique frappés par «l’absence de stabilité», dans son traditionnel message de Noël place Saint-Pierre au Vatican.

Si rien n’est fait pour améliorer la gestion des contentieux électoraux en Afrique, le suffrage universel aura été sucé de sa substance imaginée par le philosophe Diderot en 1765. Dans ce cas, du moins pour le cas de l’Afrique subsaharienne, l’on pourrait se demander si Giovanni Sartori dans Théorie de la démocratie, n’avait peut-être pas raison d’affirmer que «la démocratie est un nom pompeux que l’on donne à quelque chose qui n’existe pas». Ne lui donnons pas raison !

Posted on 21 Comments

Création d’une Technopole au Cameroun et Politique Industrielle Nationale (1ere Partie)

Dans son discours de politique générale lors du 3ème congrès ordinaire du RDPC le 16 septembre 2011, le Président Biya a déclaré que «les grandes ambitions d’hier vont devenir les grandes réalisations. Et à partir de janvier 2012, le Cameroun sera un vaste chantier». A ce sujet, il a évoqué de grands projets comme la construction de plusieurs barrages dont Lom Pangar, Memvele, ou Nachtigal. D’autres chantiers, annonçait-il, concerneront la construction d’un deuxième pont sur le Wouri à Douala, la construction du yard pétrolier et le port en eau profonde de Kribi. Le Président Biya aura quand même noté que ces « grandes réalisations » exigent une « nouvelle dynamique » qui permettra de transformer le Cameroun.

Les projets cités par le Président Biya sont inéluctablement porteurs de beaucoup d’espoir pour les Camerounais et seront sans doute de véritables vecteurs de création d’emplois pour le pays. Mais ce ne sont que de grands programmes d’équipement et d’infrastructures destinés à soutenir le développement dans quelques régions du pays d’une industrie globalement balbutiante. Dans son édition du 16 février 2010, le journal Mutations avait fait une excellente analyse sur la panne sur les ressorts de l’industrialisation au Cameroun. D’après le journal, l’ossature de l’industrie nationale est malmenée par un demi-siècle de balbutiements internes et une baisse des investissements directs extérieurs.

L’activité industrielle camerounaise est caractérisée par une atonie aussi bien structurelle que conjoncturelle. Au lendemain de l’accès à l’indépendance, le Cameroun élabore une matrice d’actions économiques dont l’issue débouche sur la définition d’une politique industrielle adossée sur trois piliers : (1) la réduction des importations par la politique d’import substitution en favorisant la production locale dans la limite des compétences ; (2) la transformation des ressources naturelles afin de créer de la valeur ajoutée ; (3) l’intervention massive de l’Etat pour le financement de l’industrie embryonnaire du pays. La récession mondiale des années 80, qui a entraîné la chute brutale des cours des matières premières, a empêché la réalisation du Plan directeur de l’industrialisation (PDI) du Cameroun de 1987. L’intervention du FMI dans le redressement et la stabilisation des finances publiques, à travers l’instauration des plans d’ajustement structurel, a plombé toute tentative de développement industriel.

Le Ministère de l’Economie, de la Planification et de l’Aménagement du Territoire a entrepris en 2009 une réflexion nationale sur le long terme et publié un document intitulé « Cameroun Vision 2035 ». L’un des objectifs généraux de cette vision prospective à long terme est de faire du Cameroun un Nouveau Pays Industrialisé (NPI). Pour ce Ministère, la principale caractéristique d’un NPI est une industrialisation rapide par une évolution accélérée du secteur manufacturier, et un développement harmonieux du domaine des services notamment dans ses composantes commerce, transport et tourisme.

Cette étude prospective a eu le mérite de lancer un débat en stimulant la réflexion sur le futur du pays. La première leçon à tirer de cette expérience est donc le grand intérêt de faire mener par les experts camerounais l’essentiel de la réflexion sur leur avenir à long terme, une leçon qui concerne certainement les futures études dans d’autres secteurs socio-économiques et politiques nationaux mais aussi probablement les études de portée plus limitée.

Cela dit, cette étude propose une politique industrielle minimaliste et limitée, ainsi que le prônent les théories standard et le modèle économique classique. Dans un classement de l’ONUDI en 2005 incluant 122 pays, le Cameroun occupait le 118e rang en matière d’industrialisation. A cause de la faiblesse de son industrie, le Cameroun était loin derrière des pays comme le Sénégal, la Côte d’Ivoire, le Rwanda, le Kenya, le Malawi, le Benin… Le secteur secondaire au Cameroun représente 20.3 % du PIB. Son taux de croissance a été de -2.5 % en 2009 contre +1.2 % en 2008, et il s’est établi fin 2010 à -1.2 %. Cette contreperformance s’explique en partie par la faible industrialisation de l’économie. Pour s’émanciper de ses faiblesses en matière d’industrialisation, l’ONUDI a conseillé que le Cameroun, l’un des pays du « Bottom Billion », doit impérativement s’intégrer à l’économie mondiale.

Une nouvelle politique industrielle au Cameroun semble légitime dès lors que celle-ci consiste en une politique d’environnement favorable aux entreprises, notamment en termes de concurrence, tout en mettant l’accent sur l’innovation et la R&D. J’ai longtemps rêvé d’une formulation par le gouvernement camerounais des prémices d’une véritable politique industrielle au Cameroun. Une politique industrielle basée sur le renouveau des actions ciblées en faveur de l’innovation. En effet, le passage à une économie mondialisée, caractérisée par la croissance des échanges et des flux financiers et l’apparition de nouveaux partenariats comme ceux avec la Chine sur des produits à haute valeur ajoutée, aboutirait à la remise en cause du PDI et de la matrice d’actions économiques élaborée au lendemain de l’accès du pays à l’indépendance. L’arrimage du pays a une économie mondialisée serait en conformité avec les méthodes de scenarios utilisées dans Cameroun Vision 2035 qui décrivent des futurs possibles du pays (y compris sa politique industrielle), eux-mêmes déterminés par l’évolution à long terme des facteurs clés.

La politique industrielle peut être définie comme l’ensemble des actions publiques ayant pour objectif d’agir directement ou indirectement sur la création, le développement et la diffusion de la production industrielle, dans le but final d’améliorer les performances des systèmes productifs. Je rêve d’une nouvelle politique industrielle destinée à promouvoir l’innovation et à valoriser et orienter notamment la recherche et développement (R&D) en direction des nouveaux secteurs de haute technologie (TIC, biotechnologies, …). Je suis convaincu que le Cameroun en bénéficierait davantage si nous accompagnions l’exécution de ces grands projets présidentiels par le lancement d’une technopole au Cameroun.

Les technopoles sont des groupements d’organisations de recherche et commerciales qui s’attachent au développement scientifique dans son ensemble, depuis le laboratoire jusqu’à l’étape de la fabrication et de la commercialisation du produit. Ils constituent un ensemble d’entreprises, majoritairement des PME, de laboratoires et d’unités de production, structurés dans un environnement de qualité. Bien souvent, ils sont situés dans un périmètre délimité qui comprend des universités et des instituts de recherche technique des secteurs public et privé. Cet espace rassemble les activités économiques de haute technologie tournées vers les innovations à venir.

L’émergence d’une technopole au Cameroun doit s’inscrire dans le cadre d’une nouvelle politique industrielle visant à l’intégration des nouveaux secteurs de haute technologie au tissu industriel. La mise en place d’une technopole au Cameroun viserait l’intégration des nouveaux secteurs de haute technologie au tissu industriel. Elle devra faciliter les mécanismes d’ancrage territorial d’activités industrielles et de services liés aux nouveaux secteurs de haute technologie. En ce sens, la diffusion des nouveaux secteurs de haute technologie dans les économies périphériques dépendrait de leur capacité à participer à l’offre mondiale. Les exemples sur le continent des technopoles tels que Ariana à Tunis (El Ghazala), technopark de Casablanca, cyberpark d’Alger (Sidi Abdellah) ou Gauteng en Afrique du Sud montrent d’une part que le secteur industriel privé est stimulé au sein de pépinières de projets pour impulser la création d’entreprises innovantes et reconstituer les liens science-industrie ; et d’autre part des mécanismes d’attractivité des firmes multinationales opérant dans les secteurs de haute technologie y sont mis en œuvre afin de favoriser les transferts technologiques.

La technopole du Cameroun pourra :
• Produire, diffuser, transférer et valoriser le savoir et le savoir-faire scientifiques et technologiques au service du développement économique et social.
• Favoriser la création et la croissance d’entreprises innovantes par la valorisation des résultats de la recherche.
• Promouvoir un fort partenariat secteur public-secteur privé.
• Stimuler l’auto-emploi en particulier pour les diplômés de l’enseignement supérieur.
• Promouvoir la compétitivité et la durabilité des économies sectorielles.
• Favoriser les investissements directs locaux et étrangers.
• Offrir des services à valeur ajoutée de même que des espaces et des installations de haute qualité
• Mettre à disposition des opérateurs économiques, les compétences et les expertises de proximité afin d’accroître leur performance et leur compétitivité.
• Préserver et sécuriser les résultats innovants d’une part, par la définition du cadre institutionnel des normes et processus de l’innovation et d’autre part, par l’élaboration, d’une législation relative à la propriété intellectuelle et au brevetage.

La technopole camerounaise devra être à vocation scientifique, technologique, industrielle, économique, artistique et culturelle. Elle doit être pensée comme une interface des économies nationale, sous-régionale, et mondiale. Elle doit être le creuset d’une véritable synergie, dans chacun des secteurs prioritaires de l’économie nationale, dans la formation de compétences, la recherche scientifique, le transfert et développement technologiques, la production de biens de services et de l’entreprenariat.

Cette série d’articles a pour objectifs (1) de proposer l’architecture d’une technopole camerounaise et les mécanismes de sa mise en place ; (2) d’identifier les contraintes organisationnelles et institutionnelles, et culturelles auxquelles s’expose une technopole camerounaise ; et (3) de proposer des solutions afin d’éviter que la future technopole camerounaise ne puisse être considérée comme un simple relais d’importation de biens et services à fort contenu technologique, sans permettre une réelle intégration des nouveaux secteurs de haute technologie au tissu industriel local.

Posted on Leave a comment

VOICI LES VALISES ET DJEMBES D’AFRIQUE !

Dimanche dernier, 11 Septembre 2011, l’avocat français Robert Bourgi, émissaire officieux de la “Françafrique” et médaillé de la Légion d’honneur en septembre 2007, a accusé Jacques Chirac et Dominique de Villepin d’avoir reçu pendant près de dix ans (de 1997 à 2005) par son intermédiaire plusieurs dizaines de millions de dollars de fonds occultes dans des valises et/ou des djembés venant de cinq chefs d’Etat africains – Sénégal, Burkina Faso, Côte d’Ivoire, Congo-Brazzaville et Gabon. Le lendemain, Bourgi est allé plus loin en affirmant que ces pratiques remontaient aux années 1960 puisqu’elles existaient même du temps de Georges Pompidou, Giscard d’Estaing, François Mitterrand. Même Jean Marie Le Pen y aurait gouté, sans blagues !

Les déclarations de Bourgi ont bien entendu déclenché une stupéfaction…étonnante des leaders politiques français, toute obédience confondue (quelle hypocrisie !). Les politiciens français se sont inquiétés de dérives gravissimes qui touchent à la démocratie française puisqu’elles concernent le financement des campagnes électorales en France. Tous, de gauche comme de droite, se sont alarmés du déclin de la moralité publique ! Aucun leader politique n’a médité et condamné les implications économiques catastrophiques que ces pratiques ont pu engendrer en Afrique.

MON POINT DE VUE : Voila plus de 50 ans que les pratiques occultes auxquelles Bourgi (et ses amis bien avant lui!) affirme avoir collaboré contribuent a la paupérisation des populations africaines. Les Africains que nous sommes n’avons pas besoin d’attendre les preuves des accusations de ce zélé porteur de valises de honte, ni des résultats hypothétiques d’une justice française pour s’offusquer des pratiques ignobles, malsaines, irresponsables et idiotes d’une “Françafrique” dépassée qui reflète, malheureusement pour ceux qui y croient encore, un archaïsme post-colonial.

Nul doute que ces pratiques s’assimilent 1) aux fraudes et évasions fiscales et 2) aux crimes contre l’humanité. La société civile africaine a le devoir de solliciter les juridictions internationales afin de juger les personnes accusées de ce génocide économique et ces crimes contre l’humanité perpétrés par ces hommes politiques incriminés et leurs complices au pouvoir en Afrique. Elle doit exiger que les auteurs de ces crimes soient punis et que les sommes volées soient rendues. Ce travail doit commencer …maintenant!

Posted on Leave a comment

Why Will Global IT Strategies Not Work Everywhere?

Information technology sometimes refers to the information systems (IS) organization that combines the technologies, processes, people, and promotion mechanisms to improve the performance and effectiveness of the organization. IT affects nearly all aspects of human endeavor and assists in the management and operations of various types of organizations.

Since the 1960s, managing and operating IT to improve organizational performance and effectiveness has been a field of practice. First, it was known as business data processing and later as management information systems, and the field is currently refers to as information technology. Ongoing innovations in IT and the growing worldwide competition add difficulties and uncertainties to corporate environments. Information systems in multinational corporations (MNCs) attract attention from both practitioners and scholars as a critical enabler for competitive advantage of these organizations.

In 1989, Bartlett and Ghoshal proposed the global integration-local responsiveness model that was an influential framework dealing with international business strategy, management relationships, and control within MNCs. Bartlett and Ghoshal drew upon the global integration-local responsiveness model to propose four forms of MNCs: global corporations (GCs), international corporations (INCs), multi-domestic corporations (MDCs), and transnational corporations (TNCs).

Global corporations (GCs) prefer to market a standardized product worldwide for economic reasons while concentrating the production, marketing, research, and development activities in a few favorable locations. In contrast, international corporations (INCs) centralize product development functions at their headquarters or a few favorable locations, and localize their customization product offering. Multi-domestic corporations (MDCs) achieve maximum local responsiveness with the customization of their products and marketing strategies to fit local conditions. Finally, in transnational corporations (TNCs), the flow of skills and product offerings was between the head office and foreign subsidiary, and between foreign subsidiaries themselves. TNCs should develop core competencies and valuable skills in the head office as well as in foreign subsidiaries.

The nature and function of information systems in an MNC should tally with the form of the organization. In order words, IT strategies depend on the nature of an MNC and can be categorized into global information strategies (GS), international information strategies (INS), multi-domestic information strategies (MDS), and transnational information strategies (TNS). The criterion of this categorization was the need for multinational integration and local responsiveness. The assumption is that the various forms of multinational information strategic planning corresponds to the different multinational IS organizational strategies.

Posted on 2 Comments

IMPACTS OF SOFTWARE PROCESS MODELS ON GROUP SOFTWARE DEVELOPMENT: A Comparative Study of RUP, UML, and XP

INTRODUCTION

Each year in the U.S., the total cost of software development projects is around $275 billion, and unfortunately 70% of these projects fail to honor their contractual arrangements. The most common factors that compromise software development are imprecise client specifications, insufficient planning and analysis, poor project management, continually moving goalposts, unrealistic short timescales, weak quality assurance, underestimated resources, an unfit schedule and scope commitments. These factors highlight two sources of complexity in software development projects: social and technical complexities.

A software development project is a complex socio-technical activity. The social aspects of such a project, which are linked to the complexity of the development activities, include how the developers and their clients interact, behave, and organize. For example, developers create and modify the software with the necessary coordination to avoid conflicts and improve the team’s performance and effectiveness. By contrast, technical aspects and their inherent complexity include appropriate design and use of algorithms, architecture, development techniques, and computing technologies.

Various software development methodologies have been created to guide the software development process and to reduce their complexities. Some of the development methodologies are agile methods, iterative processes, waterfall processes, and formal methods. Each of these models provides to software developers 1) methods and tools to understand, interpret, and manipulate the software artifact, and 2) computer-support cooperative methods and tools such as configuration software management and other process-based software development systems.

The objectives of these socio-technical systems is to meet the requirements of standards like ISO 9000, SPICE, BOOTSTRAP, SEPRM, Capability maturity model, Personal software process, and Total quality management. The purpose of this post is to compare and contrast three team-oriented software development process models: Unified Modeling Language (UML), Extreme Programming (XP), and Rational Unified Process (RUP) regarding their impacts on group software development.

Software Development Practices in XP, UML, and RUP

XP, UML, and RUP are the most commonly and extensively used models throughout the software development industry. XP, UML and RUP have considerably influenced the industry in a way that proprietary models, for instance, Microsoft operations and solution frameworks (MOF and MSF) have espoused their practices and values.

Group Software Development Support in XP

XP is the most well-known agile software development approaches compared to the other methods such as Adaptive software development, Lean Development, Crystal, Dynamic Systems Development Method, Feature Driven Development, and SCRUM. This methodology was developed by Beck in 1996 to solve many of the major issues that led to software project complications. The XP lifecycle consists of six phases, which includes exploration, productionizing, planning, first release iterations, maintenance, and death.

As a rigorous approach for group software development support, XP is characterized by a tight customer-developer loop that ensures that misunderstandings between the developer and the customer are corrected early in the development lifecycle. XP is also characterized by pair programming, one of its 12 core practices. The other practices are pair programming, planning game, small releases, metaphor, continuous integration, refactoring, collective ownership, simple design, testing, onsite customer, coding standards, and 40-hr week. XP shares the same values (communication, courage, feedback, and simplicity) as described in the Agile Manifesto that places the highest priority of the interactions on the development team, the developers and their customers. From the group software development perspective, one can note XP’s lack of practices to facilitate the communication and discussion of abstractions, the separation of analysis and development roles, the provision of components’ interfaces and design patterns. These functionalities are available in UML.

Group Software Development Support in UML

UML had been successfully applied to various domains since the adoption of its first version (UML 1.0) in 1997 and the subsequent revisions (from UML 1.2 in 1998 to UML 2.0 in 2002) by the Object Management Group. This model was influenced by various languages used in object-oriented methodologies. Like RUP, UML combined the concepts of Object Oriented Design (OOD) of Booch, Object Oriented Software Engineering (OOSE) model of Jacobson, and Object Modeling Techniques (OMT) of Rumbaugh. Many scholars consider UML as the de facto standard for designing and architecting software systems and for object-oriented modeling.

The UML meta-model is subdivided into foundation, behavioral elements, and model management packages. These packages and the rigorous specification of the UML diagrams facilitate communication and understanding between customers and developers. Although various authors have questioned the UML communication ability because of the technical aspects of the diagrams, the UML remains the closest model in the industry that facilitates such communication.

Group Software Development Support in RUP

The three principal developers of UML (Booch, Jacobson, and Rumbaug) developed RUP in 1998. RUP is use-case-driven, iterative, and incremental with a four-phase development cycle. Similar to XP, each phase is subdivided into iterations that consist of nine disciplines which result in a working software. For each discipline, developers are assigned specific artifacts, activities, and responsibilities. The virtues of RUP, like those of XP, are quick development, customer satisfaction, and low cost.

However, some scholars and practitioners noted the lack of appropriate values to guide beyond the development practices in RUP even though guiding principles such as Develop Iteratively are provided. One of the most common criticisms of RUP is that it is excessively burdensome in terms of procedures and paperwork. Many developers argued that although RUP shares a number of similarities most notably emphasizing iterations and disciplines that produce working deliverable software, the method does not share agile principles that characterized XP.

Finding Common Group Software Development Practices

The criteria catalogue is based on the assessment of the practices, values, and principles of RUP, UML, and XP. A feature is selected based on its ability to support a group software development. In this paper, seven criteria have been selected: customer requirements and understanding between stakeholders, documentation, group memory, pair programming, software configuration management process, group awareness, and continuous verification of quality. Prior research has identified similar criteria including the support for code sharing, generating awareness, simplicity, and interface design as important elements in software group projects. UML and RUP seem to be more advanced than XP regarding group software development support. XP lacks useful support practices for group software development such as group memory and documentation. However, the practice of pair programming in XP seems to contribute significantly to high software quality.

Posted on 52 Comments

Alignment and Outsourcing – Part I

How to align business and technology objectives when large-scale outsourcing exists

As a follow-up from the previous post on Fields of Alignment, here is the continuation of the subject for one of our fields – Alignment and Outsourcing Strategy. In this post, I explain the impact of the outsourcing strategy on an organization and the objective is to contribute to the research body of literature by relating two different conceptual models (SAM/mSAM and Decision cube for IT sourcing engagements) as an entry point into the development of theory.

There are five forms of IT sourcing: (a) insourcing, (b) selective sourcing, (c) strategic alliance sourcing, (d) outsourcing, and (e) off-shore outsourcing. While the insourcing relies on in-house resources, the other three types of outsourcing use resources external to the organization. Selective and strategic alliance sourcing are established on multiple suppliers and on joint venture partners respectively. While outsourcing predominantly uses resources external to the organization at a local or regional level, offshore outsourcing implies delegation of the selected business operations to an offshore location outside the country.

Information systems (IS) outsourcing (especially its offshoring aspect) as a special type of model began early in 1990 as a way to supplement in-house IT development activities. IS outsourcing became a growing economic phenomenon worldwide because of (a) the development of IT-related infrastructures in developing countries, (b) a surging demand for IT specialists in developed world, and (c) availability of a highly skilled pool of personnel in the developing world at a reasonable cost. Organizations that outsource their activities are expecting the following benefits: (a) cost savings; (b) increased rate of returns on investments, and, (c) improved access to best practices in IT design, implementation and operations.

The IS offshore outsourcing has some pitfalls if not well planned and implemented on both sides – client and vendor, and these pitfalls create client-vendor relationship problems. In addition to the problems mentioned, the three potential concerns related to privacy in information security raised by off-shoring data processing are the legal aspects, information security, and vendor reliability and dependability.

In September 2004, JP Morgan Chase, one of the world’s largest financial institutions (over $1.2 trillion in assets and the second largest U.S. bank) scrapped a 7-year, $5 billion IT outsourcing contract with IBM, as a result of a decision to bring back IT inhouse (insourcing). People who oppose outsourcing, especially offshoring, declared the “end of sourcing.” As a matter of fact, Adams, the CIO who led the process, said that his move was greatly misunderstood: “I am clearly an advocate of offshoring.” In the case of such a large bank, there was a reason for insourcing, which was mainly to get a better competitive advantage from IT, while in smaller organizations, Adams believed large-scale outsourcing is logical.

Here are some observations made by Adams:
• The work ethics, attitudes, and ambitions of the company’s employees in India are significantly higher than its U.S. employees.
• Outsourcing of major parts of mission-critical technologies is not a best solution for a large firm. Technology development should be in-house, while support services can be outsourced.
• Four criteria were used to determine what and how much to outsource: (a) the size of the company (should be large enough to attract good IS employees), (b) cost of outsourcing versus insourcing, (c) the interest level of top management to have and properly manage IT assets, and (d) financial arrangements of the outsourcing.
• It may be difficult to align business and technology objectives when large-scale outsourcing exists.
• The insourcing includes data centers, help desks, data processing networks, and systems development.
• Buying technology directly from vendors saved the bank a considerable amount of money (10 to 15 percent).
• Usually less than 5 percent of outsourcing contracts are canceled as in this case.
• The cancellation was driven mainly by the merger with Bank One, which made the combined bank very large.

There are advantages and disadvantages of outsourcing the integration of new technologies into the organization. Offshoring offers many advantages such as the focus on unique core competencies, exploitation of the intellect of another organization, and costs reduction. The main downsides of offshoring are security, lack of knowledge specific to the industry of outsource companies, languages and cultural barriers, government restrictions, and loss of control of IT assets.

Most companies enter outsourcing agreements without a good process discipline. This situation can lead to escalating costs, poor results, and difficulties managing the relationship. IS managers should know what, when, and how to outsource. They should be aware of the leadership decision-making regarding outsourcing and offshoring. In 1960, Simon published what must be one of the better-known models in the management literature, his model of decision-making. According to Simon, there are four different stages in decision-making: intelligence, design, choice, and implementation.

Whilst Simon’s model is general for decision making, some scholars and practitioners proposed adapted frameworks that parallel the decision-making process an organization supposedly goes through when evaluating its sourcing options and subsequent outcomes. These frameworks generally have two phases: (a) decision process (three phases of Simon model: why, what, which) and (b) implementation (how, outcomes).

In 2004, Dibber and his colleagues proposed a framework of IS offshoring decision-making process by identifying three variables that influence strategic offshoring decisions: (a) internal IS capacity, (b) IT services opportunity contemplated, and (c) potential strategic business values obtained from IT service. The internal IT capacity comprises commitment of top leadership, provision and deployment of infrastructure, pervasiveness and sophistication of use, technological and managerial skills. Discrete IT functions and end-to-end IT enterprise-wide solutions are the IT services opportunity being contemplated. The potential strategic business values to obtain from IT service are: service level, core competencies, alignment of goals, time to market, world class processes, industry on process knowledge, new business opportunities and overall competitiveness.

Discrete IT functions comprise (a) stand-alone functions (voice and data communication management), network monitoring and management, network services (LAN/WAN management); (b) desktop management (helpdesk, desktop support, asset management, imaging, and procurement); (c) data centers services (operation of mainframe, midrange, distributed systems, monitoring of systems performance, business continuity, backup and storage services, cloud computing and virtualization, information security and assurance); and (d) application service (application management, software maintenance and upgrades, systems operations management, problem tracking, etc.). End-to-end solutions include enterprise-wide solutions that add values to the organization.

Pati and Desai’s (2005) decision cube for IT sourcing engagements helps to determine whether or not an IT service should be outsourced. This model defines eight scenarios which guide strategic in-sourcing or outsourcing decisions. The two scenarios that guide strategic in-sourcing decisions are (a) a high level of internal capability for end-to-end solution engagement that has high strategic business values for the organization; and (b) a high level of internal capability for a discrete IT service engagement that has high strategic business values for the organization. Other scenarios favor outsourcing strategy.

I agree that most companies have outsourced some portion of their business to lower costs and over time, have achieved cost savings in the outsourced portion of the business. It is likely that this cost-saving mirage could not produce long-term benefits for a firm because it contradicts the purpose of alignment, information security, and knowledge management. The main economic driver for in-sourcing is the value associated with corporate knowledge. In the knowledge society, the value-creating strategies and long-term viability of a firm depend on sustaining its competitive advantage. Sustaining competitive advantage of the firm requires aligning IT to business in a secure environment by considering knowledge as a distinctively unique resource that should be managed.

Some References:

Dibbern J. et al. (2004). Information systems outsourcing: A survey and analysis of the literature. The DATA BASE for Advances in Information Systems, 35(4), 6-102.
Pati, N and Desai, M., S. (2005). Conceptualizing strategic issues in information technology outsourcing. Information Management & Computer Security, 13(4), 281-296.

Posted on 1 Comment

Alignment Everywhere: A Cross-cutting Issue!

Jerry Luftman made the statement some fifteen years ago that “The strategic use of information technology (IT) is now and has been a fundamental issue for every business. In essence, IT can alter the basic nature of an industry”. The statement is what one might expect for a member of IBM Consulting Group, but it is also a prescient view of what we are now seeing. Information technology is seen as a great enabler of business, especially in the global arena. Information technology, as an enabler, has allowed businesses to compete on a world stage with far less investment than in the past. The question then becomes one of knowing how best to align that tool (IT) with the goals of the organization.

Our objective is to study alignment and its implications for corporate strategy; the alignment in nations, regions, cities, rural areas; and the relationship between alignment and society. Our purpose is to develop new theories and models, collect data to test and apply the theories and models, and disseminate the research results to scholars and practitioners.

The mSAIM model is the first model developed for multinational corporations (MNCs). Four forms of MNCs are considered in our research: global, international, multidomestic, and transnational organizations. The business-IT strategic alignment implementation model for MNCs (mSAIM) draws upon the proposed business-IT strategic alignment model for MNCs (mSAM) which covers process and content perspectives of the interrelationship between business and IT for this category of organizations.

Alignment is a cross-cutting issue. Our focus is on the following fields of alignment:

1) ALIGNMENT AND FIRM STRATEGY
• Alignment and Leadership
• Alignment and Management
• Alignment in Multinational Corporations (MNCs)
• Alignment in Small and Medium Enterprises (SMEs)
• Alignment in Law Enforcement Agencies (LEAs)
• Strategic Alignment
• Industry Structure and Alignment
• Organizational Performance, Productivity, and Effectiveness
• Location, Internationalization, and Global Strategic Alignment
• Alignment and the Internet
• Alignment and Outsourcing/Offsourcing
• Alignment, Intrapreneurship, and Entrepreneurship
• Alignment and Innovation
• Alignment and Knowledge Management
• Alignment and Project Management.

2) ALIGNMENT AND ECONOMIC DEVELOPMENT
• Alignment and National Development
• Alignment for Regional Development
• Alignment of States and Regions
• Alignment in Cities
• Alignment in Rural Areas

3) ALIGNMENT AND SOCIETY
• Alignment in Healthcare
• Alignment and Electoral Systems
• Alignment in Education

Our Five-Stage Process of IT Strategic Alignment

Our five-stage process of IT strategic alignment covers process and content perspectives of the interrelationship between business and IT in MNCs. The process perspective includes the following dimensions: (a) intellectual and social, (b) short- and long-term, (c) shared domain knowledge, and (d) enablers and inhibitors.

The content perspective focused on the strategic orientation of business enterprises and the strategic orientation of the existing portfolio of information systems. The five-stage process summarizes the steps for a successful IT strategic alignment in MNCs. The process has five stages, each of which is associated with one of the nine reasons explaining IT projects failure.
The steps are: clarifying the strategic business orientation, developing leadership competencies of business and IT managers, sharing knowledge, strategically planning IT projects, and strategically managing IT and technological changes.

Note: If you are interested in Business-IT Strategy Alignment (Business Strategy Planning & IT Alignment), please join my group on LinkedIn. You will have a free access to the five-stage process of business-IT Strategic Alignment from the Slideshare presentations from my LinkedIn profile.

Join Now!

Posted on 112 Comments

Measuring the Business Value of IT Investments

IT Investment projects are defined as jobs with different sizes generally subdivided into sequence of activities, tasks with clear timelines and expectations, or complex IT efforts of interconnected activities performed by various teams to achieve well-defined objectives, budget, and schedule. IT investments are unsuccessful for many reasons but the primary explanations for these failures are the lack of commitment from the management, organizational problems, lack of strategic vision and execution capabilities, implementation problems, and lack of projects planning.

The research on IT project planning process can be subdivided into strategic and operational perspectives. Some research on IT project planning has explored the strategic aspects and the identification of projects that match with corporate objectives. Some other studies have focused on the analysis and selection of a project from several capital expenditures alternatives (or capital budgeting of IT investments).

Existing Valuation Frameworks

The traditional capital budget methods are based on the calculation of the cash flows input and outputs. Seven traditional budgeting models are used to evaluate capital projects: (a) payback method, (b) return on investment, (c) cost-benefit ratio, (d) profitability index, (e) net present value, (f) economic value added, and (g) internal rate of return.

The payback method measures the number of years required to reimburse the initial outlay of a project, by dividing the original investment by the annual net cash inflow. The return on investment (ROI) is found by dividing the net benefit by the total initial investment. The net benefit is calculated by considering the total benefits minus the total cost and the depreciation and divide by the useful life. The cost-benefit ratio method calculates the returns from a capital investment using the ratio between the total benefits and the total costs. The net present value (NPV) method is the amount of money an investment is worth, taking in account the costs, the earnings and the time value of money. The profitability index is calculated by dividing the present value of cash inflows by the initial cost of the investment. The internal rate of return (IRR) is the discount rate of return that an investment is expected to earn such as equate the present value of the project expected cash flows to the initial investment. Finally, the economic value added (EVA) approach refers to the measurement of the excess value created by managers showing a created or destroyed value of the enterprise in the analyzed period. Similar to other value-based methods (like the economic profit, cash or market value added, or cash flow ROI), EVA promotes the maximization of the economic value of a company by allocating its resources to their best use.

Traditional capital budget methods are limited to valuate IT projects because of (a) their inability to cope with risk, uncertainty, and flexibility, (b) they overlook the cost to train users, the learning curve to adapt to new technologies, and the socials subsystems costs and benefits of the IT projects, and (c) their inability to quantify intangible benefits such as improving knowledge, customer service, or decision making.

These shortcomings are especially clear with IT investments done under conditions of uncertainty in today global economy, which requires dynamic capabilities and strategic flexibility. The real option approach has been proposed as an alternative to the deterministic capital budget methodologies and the extension of the financial option theory to the options on real (non-financial) assets. The concept of real options was originally developed in the financial industry by Black, Scholes, and Merton in 1973. Myers (1984) pioneered the concept of real options by applying it to managing capital budget investments of an organization.

Prior research used real options valuation (ROV) theory for evaluating IT investments. For example, some scholars and practitioners used real options for evaluating an IT telecommunications infrastructure project. Others used a Black-Scholes approximation for valuating an IT project for the implementation of a point-of-sale banking service. Some others proposed a valuation framework for IT investments drawing upon the ROV theory and game theories.

Measuring the Performance of IT in Organizations

Even though the overall performance of the information systems (IS) function seems to be difficult to conceptualize and measure, two approaches can be distinguished in research into the IT business value: variance and process approaches. The former focuses on the relationship IT investments-organizational performance by taking into consideration financial measures such as lower costs, higher revenues, and improved market share. The latter analyses combine the returns of IT investments with process and organizational changes.

The process approach analyzes the impact of IT on an organization in terms of efficiency, effectiveness, and strategic IT alignment. IT efficiency is the IS function that highlights the relationship between IT expenditures (IS capabilities) into IT assets (or IS function outputs such as systems performance, information effectiveness, and services performance). IS capabilities are inputs such as hardware, software, human skills, and management processes that serves to translate IT expenditures into IT assets. Various metrics are used to assess IT efficiency: availability of systems and applications, number of help desk tickets, mean time between failure or license usage. These metrics comment on efficiency of systems, applications, and networks; unlike other performance variables that focus on engineering performance.

Business-IT Strategic Alignment

The metrics used to assess the efficiency of IT do not inform effectiveness. In fact, IT effectiveness is measured against the business goals and objectives. The impact of IT on organizations is moving from an efficiency production factor to the maximization of the business value of IT investments (or IT effectiveness). Enterprises use IT for two main reasons: (a) capturing information to support corporate processes, and (b) enabling business change. For these purposes, the contribution of IT must be both specific (by supporting defined business processes) and generic (by enabling undefined business change). Such measurement models are closed to capability models and different from performance models.

A reliable measurement of capability metrics is the key to align the corporate business and IT. Strategic alignment refers to the proper use of IT in the elaboration and implementation of corporate strategies and goals. Alignment is defined as the degree of fit between business and IT strategic orientations, and in particular how the integration can be achieved.

Business-IT strategic alignment grows in importance as organizations strive to link business and technology in light of the internationalization of their businesses. Our recent research study (see www.nkoyock.net) used a field survey design to examine (a) the role of knowledge management processes in the relationship between contextual factors and alignment in a multinational corporation (MNC), and (b) the role of IT projects in the relationship between alignment and the performance and effectiveness of an MNC.

The results of our research study (http://blog.nkoyock.net/?p=77) had at least four implications to leaders in MNCs: (a) the effects of top managers’ knowledge of IT on strategic business-IT alignment, (b) the importance of business-IT alignment to organizational performance and effectiveness, (c) the importance of internal context and nature of the organization to knowledge integration, and (d) the role of senior management in knowledge management and strategic management of IT.

A theoretical and practical perspective of business-IT strategic alignment in MNC was provided. Our study drew upon the strategic alignment model and the typology of MNCs to propose and test an IT strategic alignment model for MNCs (mSAM). The business-IT strategic alignment implementation model for MNCs (mSAIM) was the model for application proposed as the critical recommendation of our research study.

Please feel free to join the Business-IT Strategic Alignment community and share your experience using LinkedIn. You can also send me an invitation to connect to and download the five-stage process of business-IT strategic alignment (http://blog.nkoyock.net/?p=82) from the Slideshare presentations on my profile.

Reference:

Myers, S. (1984). Finance theory and financial Strategy. Interfaces, 14, 126-137.

Posted on 56 Comments

MIS Research and Practice: Data Analysis with SEM Techniques – Part I

On August 21, 2010, one reader commented on structural equation modeling (SEM) techniques as follow: “I don’t really know enough about SEM, I know some, but I definitely think I need to know more. Where is the best place to start for someone who has a basic understanding, but wants to learn more?”

Dear reader, the purpose of this post is to provide relevant information on Structural Equation Modeling (SEM) to you. I also want to use this opportunity to emphasize that SEM and other second generation data analysis techniques are increasingly being applied in management information systems (MIS) research and practice. I will be posting additional materials on the use, usefulness, and ease of use of SEM in MIS research and practice on my weblog.

SEM techniques are important for MIS research and practice because they provide powerful ways to address key IT research and practice problems such as understanding IT usage, end-users satisfaction, IT strategic alignment, IT project planning and implementation, knowledge management projects, and so on. These techniques can be extremely useful to IT executives who have IT substantive knowledge for modeling, exploration, and interpretation of results.

Structural Equation Modeling

Structural equation modeling (SEM) techniques refer to a range of multivariate methods aimed at examining the underlying relationships (or structure) among multiple predictor and criterion variables in a model. A structural equation modeling process requires two steps: (a) building and testing a measurement model, and (b) building and testing a structural model. The measurement model serves to create a structural model including paths representing the hypothesized associations among the research constructs.

Various scholars compared and contrasted SEM techniques to other multivariate techniques such as multiple regression analysis, multivariate analysis of variance (MANOVA), and canonical correlation analysis (CCA). While multiple regression analysis assesses the relationship between several independent (or predictor) variables and a dependent (or criterion) variable, MANOVA assesses the relationship between two or more dependent variables and classificatory variables or factors. In contrast, SEM techniques represent only a single relationship between the dependent and independent variables.

Multiple regression and MANOVA do not consider the association effects between criterion and predictor variables that generally characterized human and behavioral problems in management. These techniques are unable to examine a series of dependence associations concurrently. In contrast, SEM techniques can expand the statistical efficiency and explanatory ability for model testing with a single comprehensive framework. According to various scholars, SEM techniques have the ability to (a) model relationships among multiple predictor and criterion variables, (b) represent latent variables (or unobserved concepts) in those relationships, and (c) account for measurement error in the estimation process.

Dow et al. (2008) compared three structural equation techniques: path analysis, item level, and parcel. Dow and his colleagues noted that these techniques produced similar structural results even though they differed in the degree they fit the data and the degree of explained variance. Path analysis is considered as an extension of the regression model with a regression performed for each variable in the model as endogenous variable on others indicated by the model as causal. Item level SEM uses individual items as measured indicators for latent variables and requires a large number of parameters to estimate the fit of the model to the data. Unlike path analysis, this method can test hypotheses regarding the structural (path) model and the measurement relations. Parcel SEM used item parcels to conduct analyses with latent variables. Partial sum of responses to individual items were derived from the parcels derived from partial sum of responses to individual items. Our research study, for example, used path analysis to build and test a business-IT strategic model for multinational corporations.

Various vendors propose different SEM software packages: Amos 5, EQS 6, LISREL 8, Mplus 3, PLS Graph 3, PROC CALIS, and Mx. For our study, LISREL 8 was used for statistical analyses. LISREL is a multivariate analytical software package intended for standard and multilevel structural equation modeling techniques. These methods accommodate different data types including complex survey data on continuous variables and simple random sample data on ordinal and continuous variables.

One can note an increased use of structural equation modeling (SEM) techniques in the social sciences and in information systems research. Prior research used these techniques to address business-IT strategic alignment. Kearns and Lederer (2003) used SEM to build and test a model that examined the relationship between business-IT strategic alignment and organizational strategies. Their research model contained 6 constructs, 26 items, general demographics, and 8 hypotheses. Kearns and Sabherwal (2007) used SEM to create a structural model exploring the linkage between IT strategic alignment and IT business value. Their research model contained 9 constructs, 44 items, and 10 hypotheses.

Earlier studies using SEM did not propose models of business-IT strategic alignment for multinational corporations (MNCs). Our research study (Nkoyock, Spiker, Schmidt, & Martin, 2010) used SEM to analyze data collected through the stratified random sampling of two groups of IT and business managers. Our study drew upon SEM techniques to build and test a business-IT alignment model for MNCs with 10 constructs, 53 items, and 11 hypotheses.

SEM Modeling Process

SEM modeling process is an incremental approach specifying the procedures for testing a model. SEM analyses require essentially a 2-step modeling process of building and testing measurement and structural models: (a) measurement model, and (b) structural model.

The measurement model serves to test the reliability and validity of the measures based on the research model. This model postulates the relationship between the measured items and the underlying constructs or factors. The achievement of “best fitting” measurement model consists of attaining a non-significant chi-square statistic and the recommended values of other goodness-of-fit indices. The second step of the SEM modeling process is the test of the structural model.
Our research study used the measurement model to create a structural model, including paths representing the hypothesized associations among research constructs.

The structural model is the path model defining the relationships among the latent or unobserved variables. The structural model specifies which latent variables cause changes in the values of other latent variables. Various scholars posited the achievement of “best fitting” structural model requires the incorporation of theory, substantive knowledge, previous experience, or other guidelines to discern which independent variables predict each dependent variable.

In our research study, the initial structural model included three latent exogenous variables (organizational emphasis on knowledge management, management of perceived environmental uncertainty, and management of transnational IS strategies), seven latent endogenous variables represented the remaining constructs, and the hypothesized direct paths. The main outcome of our study is a theoretical and practical perspective of business-IT strategic alignment for multinational corporations. For more details about the results of this research study, please visit www.nkoyock.net.

Some References:

Dow, K. E., Jackson, C., Wong, J., & Leitch, R. A. (2008). A comparison of structural equation modeling approaches: The case of user acceptance of information systems. Journal of Computer Information Systems, 48(4), 106-114.
Kearns, G. S., & Lederer, A. L. (2003). A resource-based view of strategic IT alignment: How knowledge sharing creates competitive advantage. Decision Sciences, 34(1), 1-29. doi: 10.1111/1540-5915.02289
Kearns, G. S., & Sabherwal, R. (2007). Strategic alignment between business and information technology: A knowledge-based view of behaviors, outcomes, and consequences. Journal of Management Information Systems, 23(3), 129-162.
Nkoyock, A., Spiker B. K., Schmidt T., & Martin, C. (2010). Business-IT strategic alignment for complex multinational corporations: The case of the U.N. Secretariat. MIS Quarterly, to be published soon.

Posted on 88 Comments

Aligning IT to Business in MNCs: The Five-Stage Process

The five-stage process summarizes the steps for a successful IT strategic alignment in multinational corporations (MNCs.) The process has five stages, each of which is associated with one of the nine reasons explaining IT projects failure.

The steps are:

(a) clarifying the strategic business orientation,
(b) developing leadership competencies of business and IT managers,
(c) sharing knowledge,
(d) strategically planning IT projects, and
(e) strategically managing IT and technological changes.

The five-stage process of IT strategic alignment covers process and content perspectives of the interrelationship between business and IT in MNCs. The process perspective includes the following dimensions: (a) intellectual and social, (b) short- and long-term, (c) shared domain knowledge, and (d) enablers and inhibitors. The content perspective focused on the strategic orientation of business enterprises and the strategic orientation of the existing portfolio of information systems.

Kindly please send me an invitation to connect to download the five-stage process of business-IT strategic alignment from the Slideshare presentations on my LinkedIn profile. You can also join the Business-IT Strategic Alignment community and share your experience using LinkedIn.

Source: From Aligning IT to Business: A Roadmap by Alain Nkoyock, Barry K. Spiker, Thomas Schmidt, and Craig Martin. Copyright © 2010 by Alain Nkoyock.