hosted by
publicationslist.org
    

Info GÉLOG


alain.april@gmail.com

Books

2007
2006
1999

Journal articles

2008
Claude Y Laporte, S Alexandre, Alain Renault (2008)  The Application of International Software Engineering Standards in Very Small Enterprises   Software Quality Professional SQP 10: 3. 11-avr  
Abstract: Industry recognizes very small enterprises for their contribution of valuable products and services. As software quality increasingly becomes a subject of concern, and as process approaches are maturing and earning the confidence of companies, the use of ISO/IEC JTC1/SC7 international standards isspreading in organizations of all sizes. These standards, however, were not written for very small development organizations?that is, those with one to 25 employees?and are consequently difficult to apply in such settings. A new ISO/IEC JTC1/SC7 working group has been established to addressthese difficulties by developing profiles and providing guidance for compliance with ISO software engineering standards. A survey was conducted among very small enterprises on their use of standards, as well as to collect data to identify problems and potential solutions to help these enterprises apply them. More than 400 responses were received from 31 countries.
Notes: Research Notes: 567
2006
F Deniger, C Y Laporte (2006)  Développement et implantation d'un cadre de gestion de projet dans une société de postproduction cinématographique et télévisuelle   Revue Génie Logiciel, juin 77. 44-53  
Abstract: Au début du projet relaté dans le présent article, projet réalisé dans le domaine du multimédia, on visait l’implantation d’un logiciel qui se voulait une solution aux problèmes de gestion de projets d’une société de postproduction cinématographique et télévisuelle. La société livrait souvent ses projets avec des dépassements de budget et de délai. La réalité a rapidement démontré qu’un logiciel n’était pas la solution au problème perçu. L’absence d’une bonne connaissance des besoins de cette société avait créé une illusion au sujet de l’implantation à faire. C’est plutôt la documentation du processus de production qui a servi de cadre au développement du processus de gestion des projets. Dans cet article, nous décrivons ce secteur de l’industrie. Nous expliquons comment la société Acm1 a évolué dans ce contexte tout en listant les problèmes auxquels elle a fait face. Ensuite, nous décrivons comment la solution a d’abord été pensée pour résoudre les problèmes précédemment cités. Le processus documenté n’a pas encore aidé à diminuer les dépassements de coûts et de délais, mais il a permis de les mesurer et de mieux les comprendre. Ceci laisse présager un meilleur contrôle de la gestion des coûts et des échéanciers pour des projets futurs.
Notes: Research Notes: 492
C Y Laporte, J -M Desharnais, M Abou El Fatah, J C Bamba, A Renault, S Alexandre, N Habra (2006)  LÂ’amélioration des processus logiciels pour de petites entreprises : nos expériences avec les micro-évaluations   Revue Génie Logiciel, Numéro 79, décembre 09-févr  
Abstract: Depuis plusieurs d’années, l’industrie et la communauté scientifique ont étudié l’amélioration de processus logiciels dans les organisations. Cependant, cette recherche s’est appliquée principalement à de grandes entreprises. En 1998, l’université de Namur a commencé un projet de recherche sur l’amélioration des processus logiciels des petites entreprises (moins de 60 employés) principalement dans la Wallonie où l’amélioration est évidente et où l’expérimentation par cette université et le Centre d’Excellence en Technologies de l’Information et de la Communication (CETIC) est conduite. Leur travail a été suivi de recherches à l’École de Technologie Supérieure (ÉTS) dans la province de Québec. Les résultats de cette recherche et de l’utilisation de la première version de la méthode développée sont présentés dans cet article.
Notes: Research Notes: 239
F Deniger, C Y Laporte (2006)  Développement et implantation dÂ’un cadre de gestion de projet dans une société de postproduction cinématographique et télévisuelle   Revue Génie Logiciel, Numéro 77, juin 2006 44-53  
Abstract: Au début du projet relaté dans le présent article, projet réalisé dans le domaine du multimédia, on visait l’implantation d’un logiciel qui se voulait une solution aux problèmes de gestion de projets d’une société de postproduction cinématographique et télévisuelle. La société livrait souvent ses projets avec des dépassements de budget et de délai. La réalité a rapidement démontré qu’un logiciel n’était pas la solution au problème perçu. L’absence d’une bonne connaissance des besoins de cette société avait créé une illusion au sujet de l’implantation à faire. C’est plutôt la documentation du processus de production qui a servi de cadre au développement du processus de gestion des projets. Dans cet article, nous décrivons ce secteur de l’industrie. Nous expliquons comment la société Acm1 a évolué dans ce contexte tout en listant les problèmes auxquels elle a fait face. Ensuite, nous décrivons comment la solution a d’abord été pensée pour résoudre les problèmes précédemment cités. Le processus documenté n’a pas encore aidé à diminuer les dépassements de coûts et de délais, mais il a permis de les mesurer et de mieux les comprendre. Ceci laisse présager un meilleur contrôle de la gestion des coûts et des échéanciers pour des projets futurs.
Notes: Research Notes: 339
2005
M -A Côté, W Suryn, C Y Laporte, R A Martin (2005)  The Evolution Path for Industrial Software Quality Evaluation Methods Applying ISO/IEC 9126:2001 Quality Model: Example of MITRE's SQAE Method   Software Quality Journal 13: 17-30  
Abstract: This paper examines how the industrial applicability of both ISO/IEC 9126:2001 and MITRE CorporationÂ’s Software Quality Assessment Exercise (SQAE) can be bolstered by migrating SQAEÂ’s quality model to ISO/IEC 9126:2001. The migration of the quality model is accomplished through the definition of an abstraction layer. The consolidated quality model is examined and further improvements to enrich the assessment of quality are enumerated.
Notes: Research Notes: 577
2004
M -A Côté, W Suryn, R Martin, C Y Laporte (2004)  Evolving a Corporate software Quality Assessment Exercise: A Migration Path to ISO/IEC 9126   Software Quality Professional 6: 3. 17-avr  
Abstract: This article examines the differentways in which the quality modelbehind MITRE CorporationÂ’sSoftware Quality AssessmentExercise (SQAE) can be migrated toISO/IEC 9126:2001. The reasonswhy such a migration is desirableare detailed through a comparisonof the quality models supportingISO/IEC 9126 and SQAE. The problemis solved through the definitionand usage of an abstraction layerbetween the two quality models.The resulting model is examinedand further improvements aresuggested to ensure compliancewith ISO/IEC 9126.
Notes: Research Notes: 517
W Suryn, V Hailey, A Coster (2004)  Huge potential user base for ISO/IES 90003 - The state of the art for improving quality in software engineering   ISO Management System 4: 4. 34-39 July-August 2004  
Abstract: ISO/IEC 90003:2004, Software engineering ? Guidelines for the application of ISO 9001:2000 to computer software, is a new ISO/IEC standard that has a huge worldwide potentialdue to the penetration of just about every business sector, as well as many aspectsof social life, by information technology.
Notes: Research Notes: 188
2003
C Y Laporte, G Boucher (2003)  Risk Management Applied to the Re-Engineering of a Weapon System   Crosstalk - Journal of Defense Software Engineering 24-28 January 2003  
Abstract: In this article, a systems engineering process is briefly described followed by a discussion of the application of risk managementpractices to the reengineering of operator console stations of a missile weapon system. Lastly, 12 lessons learned are presented.
Notes: Research Notes: 290
T Dekkers (2003)  Beter meten met Cffp   Informatie (Dutch IT magazine) Jul/Aug 2003  
Abstract: Functiepuntanalyse is de meest gebruikte methodevoor omvangbepaling van softwareontwikkelprojecten.De telrichtlijnen hiervan zijn echter lastig toepasbaarbij nieuwe methoden zoals objectgeoriënteerd ofcomponentgebaseerd ontwikkelen. Voor dezemethoden zijn Cosmic full function points ontwikkeld.
Notes: Research Notes: 578
2002
E Miranda (2002)  Planning and Executing Time-Bound Projects   IEEE Computer 35: 3. 73-79 March  
Abstract: A time-bound project is constrained by hard deadlines, in which the delivery's timing is as important as the delivery itself. Because most time-bound projects start with more requirements than developers can handle within the imposed time constraints, requirements often must be slashed halfway through the project, resulting in missed deadlines, customer frustration, and wasted effort. A better approach defines requirement priorities before the project's start. But failing to prioritize requirements is not the only reason that projects miss deadlines.Traditional planning methods' inability to deal with uncertain estimates and their failure to recognize that development work does not progress linearly are also to blame. Statistically Planned Incremental Deliveries offer an approach that addresses these problems by combining ideas from critical chain planning, incremental development, and rate monitoring into a practical method for planning and executing time-bound projects.
Notes: 20020501, Research Notes: 59
2001
R Nevalainen (2001)  COSMIC - taivaan lahja ohjelmiston koon laskentaan   Swengineering - Project Special 1: 07-juin  
Abstract: Ohjelmiston koon laskentaton oleelinen osa ohjelmistoprojektin mitoitusta jayleensäkin ohjelmistoyksikön toiminnan laadukkuuden arviointia. Koko on normittavana tekijänä monessa laatumittarissa. Käytössaï on monenlaisia koon laskennan metodeja, joista ohjelmiston ositus arvioitaviin palasiin, tehtäväosituksen käyttö, silkka asiantuntija-arvio, rivinäärien arviointi ja toimintopistelaskenta ovat joitakin esimerkkejä. Mahdollisimman monenlaisiin ohjelmistoihin soveltuvaa methodia ei ole oikein löytynyt tai niitä ei ainakaan ole huluttu käyttää. Nyt on syntynyt uusi ehdokas ohjelmiston toiminnallisen koon laskentaan: COSMIC.
Notes: 20010411, Research Notes: 89
E Miranda (2001)  Improving Subjective Estimates Using Paired Comparisons   IEEE Software 18: 1. 87-91  
Abstract: Most practitioners and project managers still produce estimates based on ad hoc or so-called expert" approaches, even though several structured methods for software sizing and effort estimation are well known. The paired-comparisons method offers a more accurate and precise alternative to "guesstimating.""
Notes: 20010302, Research Notes: 437
2000
1999
C Y Laporte, S Trudel (1999)  Addressing People Issues when Developing and Implementing Engineering Processes   Crosstalk - The Journal of Defense Software Engineering 13-août November  
Abstract: This paper describes the approach used by a defense contractor to address the people issues raised when developing and implementing engineering processes. First, a brief description of the context is presented, then organizational mechanisms to better manage changes are described, and finally 16 lessons learned are presented.
Notes: 20010919, Research Notes: 289
C Y Laporte (1999)  Development Integration and Implementation of Engineering Processes at Oerlikon Aerospace   INCOSE - A Publication of the International Council on Systems Engineering - Insight a special Feature 2: 3. 29-33 Fall  
Abstract: In order to reduce cycle time, increase customer satisfaction and lower costs, Oerlikon Aerospace initiated a seriesof projects to define and implement engineering and management processes. The first initiative, in 1992, defined a software engineering process. A second initiative was started in 1995 with the objective of defining and implementing a systems engineering process, and integrating this process to the software engineering process already in use. We presenta brief description of the context, then describe the systems engineering process. Organizational mechanisms to better manage changes are also described. Finally, lessons learned are presented.
Notes: 20010919, Research Notes: 420
1998
C Y Laporte, S Trudel (1998)  Addressing People Issues of Process Improvement Activities at Oerlikon Aerospace   Software Process - Improvement and Practice 4: 187-198  
Abstract: This paper describes the approach used by a defense contractor, since 1992, to address the issues raised when defining and implementing engineering and management processes. First are described the steps taken to define the software engineering process, the systems engineering process and the project management process. Then issues raised during the integration of the processees are described. Finally, the steps to address the management of change are discussed and lessons learned are presented.
Notes: 20010526, Research Notes: 267
C Y Laporte, N R Papiccio (1998)  Software and Systems Engineering Process Development and Integration at Oerlikon   TCSE - Software Process Newsletter 11: 17-oct  
Abstract: This paper describes the approach used by OerlikonAerospace since 1993 to define and implement software andsystems engineering processes:- First, the steps taken to assess and define a software process are described using the Software Engineering Institute's Capability Maturity Model (SEI CMM) framework.- The steps to develop the systems engineering process using the SEI CMM framework and two processes from the Software Productivity Consortium are then described.- Process integration is discussed.- Since the human dimension of the implementation of newtechnologies is critical to the success of our effort, a few human issues are discussed.- Finally, lessons learned and the next steps are described.
Notes: 20010921, Research Notes: 249
1997
C Y Laporte, N R Papiccio (1997)  L'ingénierie et l'intégration des processus de génie logiciel, de génie systèmes et de gestion de projets   Génie Logiciel 46: Actes GL. 30-34  
Abstract: Afin de réduire la durée des cycles de développement, d'accroître la satisfaction du client et d'abaisser les coûts, Oerlikon Aérospatiale a, depuis 1992, mis en route une série de projets visant à définir et mettre en place des processus de génie logiciel, de génie système et de gestion de projets. L'initiative a commencé par une évaluation en bonne et due forme des pratiques d'ingénierie du logiciel. Un groupe fut chargé de définir et faciliter la mise en place des processus logiciel. Une seconde Initiative, démarrée en 1995, avait pour objectif de définir et de mettre en place un processus d'ingénierie des systèmes et d'intégrer ce dernier au processus d'ingénierie logiciel déjà en place. Une troisième initiative a démarré en 1996, laquelle avait comme objectif de définir un processus de gestion de projets qui charpeauterait deux autres processus.
Notes: 20010925, Research Notes: 261
1996
C Y Laporte (1996)  Maturation du génie logiciel au Québec : ou en sommes- nous ?   L'Expertise informatique 2: 1. 09-févr Été  
Abstract: Cet article est divisé en trois parties. Dans la première partie nous présentons le Centre de génie logiciel appliqué, son historique, sa mission et les services offerts. Dans la seconde partie, nous présentons un bref portrait des organismes qui ont entrepris une démarche d'amélioration du processus logiciel en utilisant principalement le Modèle d'évolution des capacités logiciel développé par le Software Engineering Institute de l'Université Carnegie Mellon. Dans la troisième partie, nous présentons quelques leçons retenues par les organismes qui ont entrepris une démarche d'amélioration du processus logiciel. Cet article est une mise à jour d'une présentation donnée lors d'un atelier qui a eu lieu au GMD, un centre de recherche en informatique allemand (Laporte, 1993, 1995).
Notes: 20010919, Research Notes: 417
1989
C Y Laporte, J -L Houle (1989)  A Voice-Interactive Evaluation System for Command Functions in Military Aircraft   Microcomputer Applications 8: 1. 20-23  
Abstract: This paper describes the architecture of a voice-interactiveevaluation system designed around the STD bus. The evaluation system includes a microcomputer module, a speech synthesizer module, a speech recognition module, and an application or interface module. The voice-interactive system is used, under the control of a host computer I in a laboratory experiment to simulate the frequency selection of VHF and UHF radios in a military aircraft. The results show that tracking a target while performing radio-frequency selection using a voice-interactive system is more precise than the manual frequency-selection method.
Notes: 20010926, Research Notes: 246
1988
C Y Laporte, J -L Houle (1988)  A Distributed Computer System for the Development of Voice Interactive Applications   International Journal of Mini and Microcomputers 10: 2. 34-40  
Abstract: This paper describes the architecture of a distributed computer system designed for the development of voice interactive applications. The system is composed of two main elements: a microcomputer and a front-end processor. The front-end processor is a speech transaction processor used as a man-machine interface. It is designed to receive verbal commands and deliver aural information and feedback to the operator of the system.
Notes: 20010919, Research Notes: 245
1986
C Y Laporte, J L Houle (1986)  La réalisation d'un terminal graphique pour le controle du trafic aérien d'aéroports militaires canadiens   Control and Computers 14: 2. 38-43  
Abstract: Les aéroports militaires canadiens ont récemment été dotés de radars utilisant des techniques numériques pour le traitement de l'information. If fut décidé d'étudier la possibilité d'équiper les tours de contrôle d'un moniteur ayant des capacités limitées par rapport aux terminaux utilisés par les contrôleurs aériens. Un logiciel a été conçu à cet effet. La tâche consiste à analyser ce logiciel, à évaluer ses performances et à proposer une architecture qui permette l'affichage des cibles en temps réel. Les contraintes imposées étaient l'obligation de relier le système d'affichage à l'équipement radar et l'utilisation d'un terminal graphique prédéterminé.Le présent article décrit des critères de performance du système réalisé. Le premier critère initial imposé par le ministère est que le traitement et l'affichage des cibles ne doivent pas retarder de plus de 22.5 degrés par rapport à la position de l'antenne radar. Le deuxième critère est que le système doit pouvoir traiter jusqu'à 60 cibles à l'intérieur d'un rayon de 32 milles nautiques. Le système d'affichage doit être compatible avec le format et le taux de transmission des mini-ordinateurs. L'affichage des cibles doit être réalisé à l'aide d'un traducteur graphique et d'un écran cathodique moderne. Le système doit être capable de filtrer les différents types de messages pour n'afficher que les messages du type cible". L'opérateur doit être capable de changer l'orientation de la plaque à l'aide de commutateurs s'il constate que l'information de la plaque peut cacher une cible. Le système doit réagir à une telle commande à l'intérieur d'une demi-seconde. Toutes les composantes utilisées doivent répondre aux critères de sélection des normes militaires. Enfin, on a étudié la possibilité d'expansion du système pour le traitement de 90 cibles se trouvant à l'intérieur de 64 milles nautiques."
Notes: 20010926, Research Notes: 247

Book chapters

2008
C Y Laporte, A Renault, S Alexandre (2008)  The Application of International Software Engineering Standards in Very Small Enterprises   42-70 Hershey, New York: InformatIon scIence reference  
Abstract: The software industry recognizes the value of very small enterprises in contributing valuable productsand services to the economy. As the quality of software increasingly becomes a subject of concern and process approaches are maturing and gaining the confidence of companies, the use of ISO/IEC JTC 1 SC71 standards is spreading in organizations of all sizes. However, these standards were not written for development organizations with fewer than 25 employees and are consequently difficult to apply in such small settings. A new ISO/IEC JTC1 SC7 Working Group, WG24, has been established to address some of these difficulties by developing profiles and providing guidance for compliance with ISO software engineering standards. A survey was conducted to question these very small organizations about their utilization of ISO/IEC JTC1 SC7 standards and to collect data to identify problems and potential solutions to help them apply these standards. Over 400 responses were received from 32 countries. Results from the survey are discussed.
Notes: Books, Research Notes: 262
1995
C Y Laporte (1995)  Software Process Engineering Activities in Québec   27-38 München/Wien: R. Oldenbourg Verlag Reports of GMD No. 254:  
Abstract: This paper is divided in two parts. The first part will present the Applied Software Engineering Centre, its history, mission, services and links with other software engineering centres. The second part will present the experience of some Québec's organizations mainly with the Capability Maturity Model developed by the U.S. Software Engineering Institute.
Notes: 20010926, Research Notes: 416

Conference papers

2008
L Buglione (2008)  An Ecological View on Process Improvement: Some Thoughts on Improving Process Appraisals   Bethesda, Maryland, USA:  
Abstract: One of the strengths contributing to the diffusion and adoption during last years of Maturity Models (MMs) such as CMMI and ISO 15504 (aka SPICE) is the evolutionary path towards a continuous improvement they provide, evolving the initial CrosbyÂ’s idea. Differently from Performance Management models (PMMs) such as the Balanced Scorecard (BSC), Malcolm Baldridge, EFQM Excellence Model or the JUSE Deming Prize, MMs seems to do not stress in their appraisal criteria the way resources are renewed, redistributing obtained ?resultsÂ’ towards the ?enablersÂ’. Looking at this question from an ?ecologicalÂ’ viewpoint, where the current environmental situation urgently asks to adopt renewable resources taking care from an holistic view of the state of the planet, the paper will discuss this issue translating it to the organizational management, proposing possible improvements to the process assessment model (PAM) generic structure of a MM, with the objective to provide a more confident picture of an organization from an appraisal, not overrated, as nowadays it can happen.
Notes: Research Notes: 283
2007
L Buglione (2007)  Do different Functionality Types Affect the Relationship between Software Functional Size and Effort?   235 - 246 Palma de Mallorca, Spain,:  
Abstract: Effort estimation is a significant practical problem in software engineering, and various cost drivers, including software size, which mighthave an impact on it have been explored. In many of these studies, total software size (measured in either lines of code or functional size units) is theprimary input. However, the relationship between effort and the components of functional size has not yet been fully analyzed. This study explores whethereffort estimation models based on the functional size components, that is, Base Functional Component types, rather than those based on a single total value,would improve estimation models. For this empirical study, the project data in the International Software Benchmarking Standards Group (ISBSG) Release 10dataset, which were sized by the COSMIC FFP method, are used.
Notes: Research Notes: 311
C Gencel, L Buglione (2007)  Do Different Functionality Types Affect the Relationship between Software Functional Size and Effort?   In: Abran-Dumke-Màs 235-246 Baleares, Spain: UIB-Universitat de les Illes Baleares  
Abstract: Effort estimation is a significant practical problem in softwareengineering, and various cost drivers, including software size, which mighthave an impact on it have been explored. In many of these studies, totalsoftware size (measured in either lines of code or functional size units) is theprimary input. However, the relationship between effort and the components offunctional size has not yet been fully analyzed. This study explores whethereffort estimation models based on the functional size components, that is, BaseFunctional Component types, rather than those based on a single total value,would improve estimation models. For this empirical study, the project data inthe International Software Benchmarking Standards Group (ISBSG) Release 10dataset, which were sized by the COSMIC FFP method, are used.
Notes: Research Notes: 512
J -M Desharnais, C Laporte, A Stambollian, M Zarour, N Habra, A Renault (2007)  Initiating Software Process Improvement with a Light Model for Small Entreprise : Our Experience   Cuba, February 15-16:  
Abstract: For many years, industry and research communities have studied Software Process Improvement in enterprises. However, that research applied mainly to large enterprises. In 1998, the University of Namur (Belgium) began a research project on Software Process Improvement in small settings (fewer than 60 employees), mainly in Wallonia to begin with, where improvements have been evident. Then, experimentations have been conducted in several dozen enterprises in 3 countries by this university, the ÉTS (École de technologie supérieure, University of Québec, (Canada)) and the CETIC (Centre d’Excellence en Technologies de l’Information et de la Communication). After many assessments within Very Small Enterprises (VSE) we found some constant about weaknesses and strength of those enterprises. The first section define what is a small enterprise, the second section present the approach and methodology, the third section presents different assessment results in the last 7 years (1999-2006) and in the fourth section we focused our study on discovering which topics are the weakest among the whole software processes, and what reasons that makes these topics the weakest. The last section is about our conclusion and future work.
Notes: Research Notes: 500
2006
D Dery (2006)  Future developments ? Universal software asset tag   In: BSI Conference Series BSI Group Headquarters, Chiswick, London, England:  
Abstract:
Notes: Subsidiary Author: Rocela - Optimising Oracle, Research Notes: 761
M Taleb, H Javahery, A Seffah (2006)  Pattern-Oriented Design Composition and Mapping for Cross-Platform Web Applications   Trinity College Dublin, Ireland:  
Abstract: In the context of cross-platform Web applications, Pattern-Oriented Design (POD) proposes that developers use proven solutions emerging from best design practices in order to solve common design problems. In addition, it requires composing patterns to create a platform-independent design and then mapping these pattern-oriented designs to specific platforms. This prevents the designer from reinventing the wheel and can have positive implications on system performance, scalability and usability. In this paper, we introduce different types of Web design patterns, as well as different composition and mapping rules to design a multi-platform Web application. We discuss why patterns are a suitable means for creating and mapping a Web design to new platforms while maintaining usability.
Notes: Research Notes: 199
Trudel, Sylvie, Tardif, Pascale (2006)  Successes and challenges experienced in implementing a measurement program in small software organizations   Nov. 2-3, Postdam, Germany, Shaker-Verlag:  
Abstract: In recent years, the authors have implemented measurement programs in several organizations of different sizes. Two of them were small software companies of approximately 12 employees, which were mostly developers. Although these two organizations were similar in size and technology, the differences in the issues they were facing led to completely different approaches for their measurement program. This paper is about the steps taken to implement these measurement programs, both including functional size measurement with COSMIC, effort, schedule, and defects. It also describes what was done to ensure the success of each program and, most importantly, the challenges that were faced during their implementation and maintenance, as well as some of the solutions proposed to answer these challenges.
Notes: Research Notes: 208
R Djouab, W Suryn (2006)  An ISO/IEC Standards-based Quality Requirements Definition Appoach: Applicative Analysis of Three Quality Requirement Definition Methods   3231-3239 Montréal, Canada:  
Abstract: It is known in the industry that software quality requirements engineering is still an immature discipline since its absence results in dissatisfied users and costly applications. The identification and specification of software quality requirements from system and user requirements is becoming a prominent task in software engineering. The lack of these requirements or their inappropriate identification may compromise business processes and may impact negatively the results of any development project. The presented paper discusses three quality engineering approaches which address quality requirements. The main objective of this research study is to define a methodology for building ISO/IEC standards-based quality approach for quality requirements identification.
Notes: Research Notes: 829
M Lemay, W Suryn, S Brown (2006)  Softswitch Multicriteria Analysis for Software Quality based on IPCC Reference Architecture   3299-3304 Montréal, Canada:  
Abstract: Quality of service (QoS) is difficult to achieve in modern voice over IP (VoIP) systems because software and hardware have a symbiotic relationship. The purpose of this paper is to present an analysis of softswitch quality that identifies where higher quality requirements should be enforced when designing or evaluating VoIP solutions. The work is based on the international standard ISO/IEC 9126 and the International Packet Communications Consortium (IPCC) reference architecture. Therefore, it applies to most vendors and architectures regardless the underlying technology. Since the softswitch is fairly complex and involves many software and hardware modules, quality attributes have been analyzed through their functional behavior. This paper provides softswitch vendors and buyers with results that will help them make better resource allocation decisions and therefore reduce both their capital and operational expenses.
Notes: Research Notes: 292
M Matica, A Pavel, A Abrudan-Purece, V Stroian (2006)  About Shape Detection of the Objects in Computerized Precincts   83-85 Oradea-Romania:  
Abstract: To define a trajectory, in computerized precincts, is necessary to study some aspects as shape of the objects, the form representation and also to make some obstacle shape measurements. Because of sampling, we do not observe the true contour but a version approaches for various types of connexity on the same grid of sampling, which succeeds has to define different contours for the same object.We will analyze two categories of form description:- the linear descriptors ? they describe the form step by step, according to its contour;- the surface descriptors ? they operate by elements of surface.
Notes: Research Notes: 426
2005
C Y Laporte, A Renault, J -M Desharnais, N Habra, M Abou El Fattah, J C Bamba (2005)  Initiating Software Process Improvement in SMEs: Experiment with CETIC's Micro-Evaluation   153-164 Reykjavik, Islande: University of Iceland  
Abstract: For many years, industry and the research community have stud ied software processimprovement in the enterprise. However, that research applied mainly to largeenterprises. In 1998, the University of Namur began a research project on softwareprocess improvement in small enterprises (fewer than 60 employees), mainly inWallonia, where improvement is evident and where experimentation by this universityand the CETIC (Centre d’Excellence en Technologies de l’Information et de laCommunication) is being conducted. Their work has been followed more recently byresearch at ÉTS (École de Technologie Supérieure) in the Province of Québec, the resultsof which are presented in this paper.
Notes: Research Notes: 265
2004
T Dekkers (2004)  Control Enhancement Project Based on Size Measurement   Rome, Italy:  
Abstract: Looking at the distribution of the costs of IT, the largest part of the budget is allocated to maintenance and enhancement projects. New development comprises between 30 to 50% of IT costs. Functional size measurement methods are mostly used for new development only. With some extensions to common size measurement methods like Function Point Analysis [1] and COSMIC Full Function Point [2] one can tackle almost all IT activities. Furthermore the same productivity rates (performance) can be used in enhancement projects also. Over the last 10 years we used the extended measurement method based on Function Point Analysis very successfully in a great number of projects. The same concept is also applicable when using COSMIC Full Function Points.
Notes: Research Notes: 519
M Conte, T Iorio, R Meli, L Santillo (2004)  E&Q: An Early & Quick Approach to Functional Size Measurement Methods   Rome, Italy:  
Abstract: The application of software functional size metrics, as IFPUG Function Points andCOSMIC Full Function Points, frequently reveals serious difficulties arising from the lack ofa detailed and complete description of the functional user requirements of the systems beingmeasured. This kind of difficulties, combined with the obvious need to provide an estimationof the measures in a reduced and early time frame, compared to the standard measurementduration and time, led to the definition of the Early and Quick (Function Pont) technique.This work describes the generalized definition of the technique and how its structure andconcepts are specialized for the above measurement methods, providing all the requiredinformation for applying it in practice. Moreover, we provide the goodness evaluationmethod and results of the technique with respect to the estimated and actual measures,through a given set of numerical indicators.
Notes: Research Notes: 14
A Lesterhuis (2004)  Guideline for the application of COSMIC-FFP for sizing Business applications Software   Magdeburg, Germany: Shaker-Verlag  
Abstract: The COSMIC-FFP functional sizing method can be applied to several software domains (such as business applications and 'real-time' software). The Measurement Manual offers a theoretical skeleton, together with examples from those domains. For each specific software domain a Guideline will be developed. A Guideline aims to describe detailed rules and to provide extensive examples for the sizing of software from that specific domain.The first Guideline to be published gives a characterisation of the business applications domain. To apply the COSMIC-FFP method to business applications software the measurer requires a good understanding of data analysis. The Guideline gives a short explanation of data analysis and its relation with the COSMIC-FFP method. Finally, the application of the COSMIC-FFP method in the domain is explained for the End-user Measurement Viewpoint and the Developer Measurement Viewpoint, as defined in the COSMIC-FFP Measurement Manual.The Guideline discusses the materials of the COSMIC-FFP method (boundary, layer, object of interest, identification of data movements etc.), their manifestation in the business applications domain together with many examples.Measurement of maintenance, the extended definition of object of interest and its implications for sizing are treated. Besides, several issues as sizing authorisation, help, logging, menus and layouts are treated.
Notes: Research Notes: 293
M -A Côté, W Suryn, R Martin, C Y Laporte (2004)  The analysis of the industrial applicability of software product quality ISO standards: the context of MITRE's Software Quality Assessement Exercise   Canterbury, kent, UK:  
Abstract: This paper examines how the industrial applicability of both ISO/IEC 9126:2001and MITRE Corporation's Software Quality Assessment Exercise (SQAE) can bebolstered by migrating SQAE's quality model to ISO/IEC 9126:2001. Themigration of the quality model is accomplished through the definition of anabstraction layer. The consolidated quality model is examined and furtherimprovements to enrich the assessment of quality are enumerated.
Notes: Research Notes: 457
T Dekkers (2004)  Basic Measurement Implementation: away with the Crystal Ball   Minneapolis, USA:  
Abstract: When implementing FPA, COSMIC Full Function Points or another measurement program everyone is looking for best practices. Although there is a change in initiation of a measurement program the items relevant for an implementation did not really change. In the early days IT (supplier) initiated most of the time the measurement program. Nowadays business management (principal) shows more interest in having a measurement program in place. But it has to be controllable and transparent. Business is not looking for a crystal ball. With that the measurement program should be pragmatic, simple and give quick wins. Because implementations are part of the business of Sogeti Nederland B.V., we developed based on over 10 years of experience a model that addresses strategical, tactical and operational issues. MOUSE gives a helping hand for both experienced and less experienced professionals to do a successful implementation.
Notes: Research Notes: 470
F Vogelezang (2004)  Implementing COSMIC-FFP as a replacement for FPA   Magdeburg, Germany: Shaker-Verlag  
Abstract: This article shows the first results of the adoption of COSMIC Full Function Points as a sizing method replacing function point analysis. The main arguments why COSMIC FFP was chosen will be explained, the transformation plan will be shown together with the first results of the use of COSMIC FFP. Next to the management requirement that the new functional sizing method had to be a standard a number of practical requirements were essential before the transformation could start: to find a correlation between Cosmic functional sizing units and function points so that the existing figures for size and product delivery rate could be reused, (early) estimation possibilities and the use of COSMIC-FFP for sizing maintenance projects.
Notes: Research Notes: 213
S Trudel, J -M Lavoie, M -C Paré, W Suryn (2004)  The design of the software quality evaluation method combining CMMI and ISO/IEC 14598: the context of a small compagny   Canterbury, kent, UK:  
Abstract: Many small software organizations have recognized the need to improve their software product. Evaluating the software product alone seems insufficient since it is known that its quality is largely dependant on the process that is used to create it. Thus, small organizations are asking for evaluation of their software processes and products. The ISO/IEC 14598-5 standard is already used as a methodology basis for evaluating software products. This article explores how it can be combined with the CMMI to produce a methodology that can be tailored for process evaluation in order to improve their software processes.
Notes: Research Notes: 207
Koppenberg, Tom, T Dekkers (2004)  Estimating maintenance projects using COSMIC-FFP   Magdeburg, Germany: Shaker-Verlag  
Abstract: A large number of software projects are enhancement projects of existing software. For estimating new projects acceptance of COSMIC Full Function Points [ ] is rapidly growing because it has already proven to be a good alternative for Function Point Analysis. Estimating enhancements using classic Function Point Analysis [ ] has always been somewhat controversial, but we believe that COSMIC can be a very good alternative in the very near future.
Notes: Research Notes: 70
Santillo, Luca (2004)  Early & Quick COSMIC-FFP Analysis using Analytic Hierarchy Process   Magdeburg, Germany: Shaker-Verlag  
Abstract: COSMIC-FFP is a rigorous measurement method that makes possible to measure the functionalsize of the software, based on identifiable functional user requirements allocated onto differentlayers, corresponding to different levels of abstraction. The key concepts of COSMIC-FFP aresoftware layers, functional processes and four types of data movement (sub-processes). A preciseCOSMIC-FFP measure can then be obtained only after the functional specification phase, while forforecasting reasons the Early & Quick COSMIC-FFP technique has been subsequently provided,for using just after the feasibility study phase.This paper shows how the Analytic Hierarchy Process, a quantification technique of subjectivejudgements, can be applied to this estimation technique in order to improve significantly its selfconsistencyand robustness. The AHP technique, based on pair-wise comparisons of all (or someof) the items of the functional hierarchical structure of the software provided by E&Q COSMICFFP,provides the determination of a ratio scale of relative values between the items, through amathematical normalization. Consequently, it is not necessary either to evaluate the numericalvalue of each item, or to use statistical calibration values, since the true values of only one or fewcomponents are propagated in the ratio scale of relative values, providing the consistent values forthe rest of the hierarchy.This merging of E&Q COSMIC-FFP with AHP results in a more precise estimation methodwhich is robust to errors in the pair-wise comparisons, and self-consistent because of theredundancy and the normalization process of the comparisons.
Notes: Research Notes: 149
2003
T Dekkers (2003)  (Extended) Functional size measurement methods are also applicable in enhancement projects   Sydney, Australia:  
Abstract: Looking at the distribution of the costs of IT, the largest part of the budget is allocated to maintenance and enhancement projects. New development comprises between 30 to 50% of IT costs. Functional size measurement methods are mostly used for new development only. With some extensions to common size measurement methods like Function Point Analysis and COSMIC Full Function Point one can tackle almost all IT activities. Furthermore the same productivity rates (performance) can be used in enhancement projects also. Over the last 10 years we used the extended measurement method based on Function Point Analysis very successfully in a great number of projects.
Notes: Research Notes: 491
T Dekkers (2003)  Basic Measurement Implementation: away with the Crystal Ball   Montreal, Canada: Shaker-Verlag  
Abstract: Looking at the distribution of the costs of IT, the largest part of the budget is allocated to maintenance and enhancement projects. New development comprises between 30 to 50% of IT costs. Functional size measurement methods are mostly used for new development only. With some extensions to common size measurement methods like Function Point Analysis [1] and COSMIC Full Function Point [2] one can tackle almost all IT activities. Furthermore the same productivity rates (performance) can be used in enhancement projects also. Over the last 10 years we used the extended measurement method based on Function Point Analysis very successfully in a great number of projects. The same concept is also applicable when using COSMIC Full Function Points.
Notes: Research Notes: 446
P Krause, B Freimut, W Suryn (2003)  New Directions in Measurement for Software Quality Control   Computer Society Press  
Abstract: Assessing and controlling software quality is still an immature discipline. One of the reasons for this is that many of the concepts and terms that are used in discussing and describing quality are overloaded with a history from manufacturing quality. We argue in this paper that a quite distinct approach is needed to software quality control as compared with manufacturing quality control. In particular, the emphasis in software quality control is in design to fulfil business needs, rather than replication to agreed standards. We will describe how quality goals can be derived from business needs. Following that, we will introduce an approach to quality control that uses rich causal models, which can take into, account human as well as technological influences. A significant concern of developing such models is the limited sample sizes that are available for eliciting their parameters. In the final section of the paper we will show how expert judgement can be reliably used to elicit parameters in the absence of statistical data. In total this provides a framework for quality control in software engineering that is freed from the shackles of an inappropriate legacy.
Notes: Research Notes: 297
T Dekkers (2003)  (Extended) Functional size measurement methods are also applicable in enhancement projects   Montreal: Shaker-Verlag  
Abstract: Looking at the distribution of the costs of IT, the largest part of the budget is allocated to maintenance and enhancement projects. New development comprises between 30 to 50% of IT costs. Functional size measurement methods are mostly used for new development only. With some extensions to common size measurement methods like Function Point Analysis and COSMIC Full Function Point one can tackle almost all IT activities. Furthermore the same productivity rates (performance) can be used in enhancement projects also. Over the last 10 years we used the extended measurement method based on Function Point Analysis very successfully in a great number of projects.
Notes: 20030923, Research Notes: 15
T Dekkers (2003)  (Erweiterte) Funktionalgrößen Meßmethoden sind auch in Verbesserungsprojekten anwendbar   Germany:  
Abstract: Betrachtet man die Verteilung der IT Kosten, stellt man fest, dass der größte Teil des Budgets für Wartungs- und Verbesserungsprojekte zugewiesen wird. Neuentwicklungen umfassen 30-50% der IT Kosten. Methoden zur Messung des Funktionsumfangs werden meistens nur bei Neuentwicklungen angewendet. Mit kleinen Erweiterungen bekannter Meßmethoden wie der Function Point Analyse oder COSMIC Full Function Points kann fast jede IT Aktivität analysiert werden. Während der vergangenen 10 Jahre hat Sogeti die erweiterte Meßmethode basierend auf der Function Point Analyse sehr erfolgreich in zahlreichen Projekten angewendet.
Notes: Research Notes: 16
F Vogelezang, A Lesterhuis (2003)  Applicability of COSMIC Full Function Points in an administrative environment Experiences of an early adopter   Montreal: Shaker-Verlag  
Abstract: Rabobank is reshaping its systems portfolio of Rabobank from dedicated product systems to a network of generic services with a shared data source. In this environment Function Point Analysis no longer fits the sizing needs. An alternative was found in the COSMIC Full Function Points method. Because of the absence of benchmark data a conversion formula was derived for projects that were measurable in both COSMIC Full Function Points (End User Viewpoint) and Function Point Analysis. This conversion formula now reads as:Y (cfsu) = -87 + 1,2 X (fp)The correlation coefficient for this conversion formula is 0,99 and the standard deviation in the difference in the Y-value is 59. To support the estimating process in early stages of systems development the locally calibrated approximate version of COSMIC Full Function Points was derived from the first set of measurements. Our version shows very good resemblance to the version presented in the Measurement Manual. Because these figures were derived in a very different environment this might be an indication that these figures have a more general applicability.
Notes: Research Notes: 212
T Dekkers, F Vogelezang (2003)  COSMIC Full Function Points: Additional to or replacing FPA   Sydney, Australia:  
Abstract: The Expertise Centre Metrics of the Dutch Rabobank experienced problems in using Function Point Analysis for estimating development effort especially in contemporary platforms. As a result confidence in metrics decreased and management asked the Expertise Centre to look for a measurement method that could solve the problems. After a useful experiment with the Functional Size Reference Model, COSMIC Full Function Point was chosen as a method next to Function Point Analysis. This paper shows the first results of the adoption of COSMIC Full Function Points as a sizing method next to (or replacing) Function Point Analysis.
Notes: Research Notes: 471
W Suryn (2003)  Thoughts on Teaching Software Quality Engineering   Glasgow, Scotland, UK:  
Abstract: The article presents an overview of the subject of Software Quality Engineering (SQE) education. Four different perspectives are taken into account: why to teach SQE, how the subject is being taught today, what support teachers have to teach SQE and how could the Software Quality engineer be educated. The latest trends in methods and tools pertinent to the domain are also presented.
Notes: Research Notes: 184
D Bagert, M Barbacci, D Budgen, T Lethbridge, W Suryn, V H Von (2003)  Thoughts on Software Engineering Knowledge, and how to Organize it   Computer Society Press  
Abstract: SWEBOK describes what knowledge a softwareengineer who has a BachelorÂ’s degree andfour years of experience should have. SEEKdescribes the knowledge to be taught in an undergraduateprogram in software engineering.Although different in scope and purpose, thereare many similarities between the two, and afterall, even experienced developers need an education,donÂ’t they? A full-day workshop onthe alignment between SWEBOK and SEEK,held at STEP 2002, revealed a number of issuesthat received either a scant or a scatteredtreatment in either or both documents.These issues include: software architecture,software measurement, and software quality.In addition, topics of debate were whether ornot user interface design should be consideredpart of software design, or rather deserves itsown, separate treatment; and whether maintenance/evolution merits a separate discussion,or should rather be seen as the default mode ofoperation in software development. This paperelaborates the discussions of this workshop.
Notes: Research Notes: 536
2002
R Dupuis (2002)  Member of the Program Committee   Covington, Kentucky, USA:  
Abstract:
Notes: 20010530, Research Notes: 743
2001
A Schmietendorf, R Dumke (2001)  Empirical Analysis of the Performance-related Risk   127-132 Montréal, Québec:  
Abstract: The current methods of effort estimation frequently take indirect account of the tasks of software performance engineering (SPE), and provide widely differing conclusions. In order to create transparency and acceptance for this task that has been growing in importance for years in the context of the life cycle of IT systems, an approach (PRM Performance Risk Model) is adopted that derives resource requirements from a corresponding risk analysis, and conversely looks at the business system to be supported, the software development and the operational environment. After a short introduction of the current situation and a look behind the PRM-model itself, this paper describes first experience by the use of the PRM-model within 6 industrial projects.
Notes: 20010910, Research Notes: 152
G Lévesque, V Bevo (2001)  Measuring Size for the Development of A Cost Model: A Comparison of Results Based on COSMIC FFP and SLIM Back-Firing Function Points   197-205 Montréal, Québec:  
Abstract: Research has been initiated to develop a cost model for an outsourcing company which is oriented toward the development and maintenance of management information systems for a large telecommunications company. A measurement process has been implemented to collect post-project data and to develop a cost model for estimation purposes. As an initial step, these data were analyzed using the SLIM metrics tool and the COSMIC FFP method in parallel for the measurement of size. In this paper, the cost models derived from the two methods are presented, compared and discussed for their validity. Results of a short-cut estimation method based on the COSMIC FFP measures are also included. Finally, research avenues emerging from this study are identified.
Notes: 20010910, Research Notes: 294
M Lother, R Dumke (2001)  Points Metrics - Comparison and Analysis   155-172 Montréal, Québec:  
Abstract: In the area of software measurement a diversity of methods exists to evaluate respectively to measure characteristics of software products, processes and resources. Within the last years different points metrics, e.g. Function Points, Feature Points, Object Points, Full Function Points, were developed and introduced. With help of these metrics functional size measurement is possible as well as early costs and effort estimations and process-conducting management activities based on metrics.Because of the increasing importance of the topic of functional size measurement and the variety of points metrics, this paper gives an overview of existing approaches and discussions, thus deals with opportunities and problems in this area.This study introduces chosen functional size metrics and evaluates them with respect to their suitability for certain functional domains and their maturity. Furthermore, general problems of functional size measurement and the belonging methods will be discussed as well as alternative approaches will be presented.
Notes: 20010910, Research Notes: 425
C Symons (2001)  Come Back Function Point Analysis (Modernised) - All is Forgiven!   12 Heidelberg, Germany:  
Abstract: Function Point Analysis was invented by Allan Albrecht of IBM as a means of sizing business application software independently of the technology used for its development. AlbrechtÂ’s method washeavily promoted in its early years and has become the most widely used such method. However, the underlying model which Albrecht used for his sizing method, which was valid in the mid 70Â’s when itwas first conceived, is increasingly difficult to apply to modern software development. This and other factors have led to a decline in the methodÂ’s use.In this paper, we examine the reasons for the decline, and the main advances in thinking on the more general topic of Functional Size Measurement (FSM) which have been made in the last 15 years.Specifically, the COSMIC FFP method is seen as a significant step forward in being the first method designed by an international group of software metrics experts to work for both business applicationand real-time software.Furthermore, it has been realised that a reliable FSM Method would be a very great asset with many uses, such as helping improve requirements specification, estimating, project ?scope creepÂ’, supplierperformance measurement and contract control, etc. The experience of the new methods and the realisation of their potential value indicate that a return to popularity of (modernised) Function Point Analysis, in the guise of more general FSM Methods such as COSMIC FFP is highly likely.
Notes: 20010605, Research Notes: 193
C Y Laporte (2001)  Le triangle de la qualité des logiciels: le personnel, le processus et le produit   Québec:  
Abstract: Trois éléments contribuent à la qualité d’un produit logiciel: la qualité du personnel qui livre au développement ou à la maintenance des composants logiciels, la qualité du processus logiciel et la qualité des composants du produit logiciel. Ces éléments du triangle de la qualité permettent dedéfinir une stratégie pour le maitre d'oeuvre et le développeur qui désirent améliorer qualité, productivité, rapidité de développement et rentabilité.
Notes: 20020109, Research Notes: 422
V T Ho (2001)  Using Functional Size for Software Project Management   HaiPhong, Vietnam:  
Abstract:
Notes: 20010710, Research Notes: 679
C Wille, R Dumke, S Stojanov (2001)  Performance Engineering in Agent-based Systems Concepts, Modelling and Examples   109-126 Montréal, Québec:  
Abstract: This paper presents a kind of application of the software performance engineering to the area of agent-based systems.In a first part we will describe the general aspects and contents of multi agent systems (MAS) architectures. Then, a short presentation of the main software performance principles should motivate the measurement approaches for the MAS. Software agents can be intelligent as well as flexible. This involves the possibility of using traditional methods of software performance evaluation and controlling based on some classical approaches like a posteriori" or "fix it later" technologies.Our paper presents new approaches in performance measurement of agent-based systems relating to software aglets and MAS based on the new MALINA concept."
Notes: 20010910, Research Notes: 216
J -M Desharnais, P Westwood, T Rollo (2001)  The Strengths and Weaknesses of Functional Measure of a Good Negotiation Tool for New Project Developments   287-294 London, England:  
Abstract: The user/contractor negotiations when constructing a software application are not easy. Many factors need to be considered (cost, product deliver, technical issues, competition, risk, etc.). In this article our focus is on the delivery of the product through the different phases of a project, using functional measure. To follow a product though different phases, a measure that can cope with preliminary requirements must be used. So, functional measure is preferable to lines of code (1). But lines of code are not totally eliminated. Some have used FPA (Function Point Analysis) to predict lines of code (1,2) or to predict FPA from lines of code (backfire) (3). However there has been very little study, to our knowledge, that analyses the performance of FPA as a predictor, from the user requirements through to theimplementation of the software (2). The following article relates our experiences measuring, at different project phases (early, intermediary and final), two software development projects using different methodologies for counting and validating function points. We found that it was necessary to consider different types of users when counting software, not only the end user. What one user could see as technical could be seen as a functional requirement by another. This challenges the common view about what functional measure is measuring. In both projects a report generator was seen as the solution for the many reports identified in the requirements. This resulted in a lower number of function points. Other less obvious infrastructure processes were constructed to improve the quality of the product. We were not able to do the count of those processes based on FPA actual rules. Those processes are considered as technical.The final result for one project had no more than 6% difference in the number of function points between early, intermediary and final report. What was surprising for the supplier was the fact that the number of function points went down. There were many disagreements between the client and the supplier about the extension of the requirements caused by the construction of infrastructure processes not considered by FPA.The intermediary result of the second project showed minus 16% difference between the requirements and the second count when considering only the number of function points. For this particular project, it was decided to look more closely at the infrastructure processes considering different types of users. We used a measurement methodology that takes in account the different type of users (COSMIC-FFP). As a result, at the intermediary stage, the difference between the requirements count and the second count was 2%. Our conclusion is that, in order to control the cost of a software development project, the measurement methodology must consider the different types of users.
Notes: 20010716, Research Notes: 837
A Seffah, N Kececi, M Donyaee (2001)  QUIM: A Framework for Quantifying Usability Metrics in Software Quality Models   311-317 Hong Kong, Japan:  
Abstract: This paper examines current approaches to usability metrics and proposes a new approach for quantifying software quality in use, based on modeling the dynamic relationships of the attributes that affect software usability. The Quality in Use Integrated Map (QUIM) is proposed for specifying and identifying quality in use components, which brings together different factors, criteria, metrics and data defined in different Human Computer Interface and Software Engineering models. The Graphical Dynamic Quality Assessment (GDQA) model is used to analyse interaction of these components into a systematic structure. The paper first introduces a new classification scheme into graphical logic based framework using QUIM components (factors, criteria metrics and data) to assess quality in use of interactive systems. Then, we illustratehow QUIM and GDQA may be used to assess software usability using subjective measures of quality characteristics as defined in ISO/IEC 9126.
Notes: 20010927, Research Notes: 154
K Paton (2001)  Cost-Effectiveness of Manual Code Inspection   133-136 Montréal, Québec:  
Abstract: One of a software development manager's important tasks is to decide how to modify the development process in the interests of greater efficiency. For example, some have suggested that the benefits of Fagan-style code inspection far outweigh its cost; a cautious manager will wish to verify this before authorizing a trial. This paper shows what to measure about the current development process and how to use these measurements to make a rational decision.
Notes: 20010910, Research Notes: 137
2000-2005
2000
G Lévesque, M -A Zamor, S Shostak (2000)  Requirements Management : from technical to managerial aspects   12 Paris, France:  
Abstract: Following a CMM appraisal which identified the Requirements Management Process (RMP) as a target for improvement, CGI published a new requirements management policy. An action research study was then undertaken to find out the root-causes of some requirements-related problems and to design improvements to the process. Although development projects had been managed according to an internal development methodology for many years, the research concluded that the initial requirements for projects were too often incomplete, not validated by their end-users and that they were not really intelligible to the users. The Requirements Engineering Process and particularly the elicitation process was at the source of the problems. To improve the elicitation process, requirements checklists and a user scenario template were designed and tested in a pilot project. These were then included in the formal methodology. The weak parts of the methodology having been resolved, the real challenge of enforcing the Requirements Management policy now becomes a responsibility of project managers with the support of the high-level management for its institutionalisation.
Notes: Research Notes: 296
E Miranda (2000)  An evaluation of the paired comparisons method for software sizing   8 Limerick, Ireland:  
Abstract: This paper evaluates the accuracy, precision and robustness of the paired comparisons method for software sizing and concludes that the results produced by it are superior to the so called ?expert? approaches.
Notes: 20000301, Research Notes: 435
1999
A Schmietendorf, E Dimitrov, R R Dumke, E Foltin, M Wipprecht (1999)  Conception and Experience of Metrics Based Software Reuse in Practice   12 Lac Supérieur, Québec:  
Abstract: There are already a number of studies and success stories" about practical applications related to software reuse. For the most part however, the actual benefits of reuse, particularly for concrete technologies, are difficult to verify. The SW-WiVe project performed by Deutsche Telekom in collaboration with the Otto-von-Guericke University provides a detailed analysis and offers strategies for software reuse within industrial software development that can be subjected to critical evaluation. Traditional evaluation approaches, such as reuse metrics, were critically studied and necessary processes for continuous reuse were developed for this purpose. In a further step, currently available, valid reuse metrics for the software development process were classified and lacking metrics-based evaluation approaches were identified. This paper focuses on a description of the project's metrics-oriented terms of reference."
Notes: 19991105, Research Notes: 151
N Kececi, M Li, C Smidts (1999)  Function Point Analysis: An Application to a Nuclear Reactor Protection System   7 Washington, D.C.:  
Abstract: This paper presents an application of full function point analysis to the estimation of the size of real-time control software. The full function point counting technique is briefly described. Its usage is illustrated on a part of the Westinghouse Reactor Protection Control System and the results analyzed. We further describe a technique for the graphical representation of requirements that helps in the full function point assessment. Specifically, the technique is used for identifying the groups of data and processes as well as the application boundaries.
Notes: 20011122, Research Notes: 60
T Fetcke (1999)  A Generalized Structure for Function Point Analysis   11 Lac Supérieur, Québec:  
Abstract: Since its first publication by Albrecht, Function Point Analysis has been revised and modified several times. Today, a number of variants are in use, which differ in their respective views on functional size.Function Point Analysis relies implicitly on a model of software. We propose the Function Point Structure as a formalization of the software model of Function Point Analysis. The Function Point count is then defined as a function on the Function Point Structure. Function Point variants differ in their abstract models of software as well as in their measure functions. Therefore, different formalizations of the Function Point Structure are required for each variant. We present here a generalized Function Point Structure for several data oriented variants of Function Point Structure, we can analyze the empirical assumptions made by the FPA variants and the implications on the prediction of other variables. We can also study the differences between the views and assumptions of the variants.
Notes: 19991101, Research Notes: 381
C Y Laporte (1999)  La gestion et la création de la connaissance   44 Montréal, Québec:  
Abstract:
Notes: 20011113, Research Notes: 421
C Y Laporte, S Trudel (1999)  Addressing the People Issues when Developing and Implementing Engineering Processes   7 Brighton, U.K.:  
Abstract: This paper describes the approach used by a defense contractor to address the people issues raised when developing and implementing engineering processes. First, a brief description of the context is presented, then organizationalmechanisms to better manage changes are described finally, sixteen lessons learned are presented.
Notes: 20010925, Research Notes: 268
E Foltin, A Schmietendorf, R R Dumke (1999)  Requirements and Design of a Metrics Database for industrial use   10 Lac Supérieur, Québec:  
Abstract: There exist a lot of methodology hints, software inspection- and review- handbooks, and metrics tools to support the application of software measurement throughout the software lifecycle. There is still, however, a widespread lack of confidence in the interpretation of metrics and their values, in concentration on use of only a few metrics and in the processing of large sets of measured values. The analysis of the different evaluation, counting and measurement results should be supported by a data base technique to keep control of the software development process. This paper describes the different sources of metrics data and their effective handling. It concludes with a discussion of the experiences with a prototype of a metrics database in an industrial setting.
Notes: 19991101, Research Notes: 629
K Paton (1999)  Automatic Function Point Counting Using Static and Dynamic Code Analysis   6 Lac Supérieur, Québec:  
Abstract: We define an intermediate representation of a program P as a data flow graph DF(P) and shown that this representation allows us to express the program as a quadruple Q={F,T,r,w} useful in function point analysis. We show that we can derive DF(P) by program slicing, a form of static code analysis. Starting with one given output file, A say, we derive the smallest program A(P) that mimics P in its writing to A. When we repeat this process for all output files,(A,B,C,D say) we obtain a set of programs A(P), B(P), C(P) and D(P) in which any two are disjoint or identical. The number of unique such programs is the number of transactions and straightforward analysis yields DF(P).We shown that we can also derive DF(P) by program tracing, a form of dynamic code analysis. In this case, we can modify the program P being studied into a second program P' such that P' has the same behavior as P and P' generates a trace showing what it is doing. From the trace, we can automatically derive the intermediate representation DF(P). The modification of P to P' can be carried out automatically by methods of static code analysis now under development.
Notes: 19991101, Research Notes: 136
N Kececi, C Smidts, M Modarres, Y-S Hu (1999)  System-Software Interfaces for Safety-Related Digital I&C Systems   6 Munich, Germany:  
Abstract: The purpose of this paper is to discuss a structured software development process based on a graphical method which relates functional requirements and software specifications to the detailed software design and implementation. This paper presents a systematic logic-based method. The approach may be used to model the functional specifications of digital instrumentation and control systems used for safety purposes. The graphical representation of functional requirements is depicted through a multilevel hierarchical decom-position technique which allows one to (i) show functional interrelations between system and software (ii) map to follow functional information from the system level to the software implementation (requirement, de-sign, code), (iii) address incomplete, inconsistent, and ambiguous requirements.
Notes: 20011122, Research Notes: 62
C Y Laporte, G Boucher (1999)  Implementing Risk Management as part of a Systems Engineering Process   6 Brighton, U.K.:  
Abstract: During the last five years, Oerlikon Aerospace developed and implemented engineering processes. In this paper, we discuss the application of risk management to the re-engineering of operator console stations of a missile weapon system. Webriefly describe the systems engineering process. Finally, twelve lessons learned are discussed.
Notes: 20010925, Research Notes: 237
S Oligny (1999)  COSMIC-FFP - Aims, Design Principal and Progress   28 Roma, Italy:  
Abstract:
Notes: 19991202, Research Notes: 77
1998-2000
1998
C Y Laporte (1998)  Development and Integration Issues about Software Engineering, Systems Engineering and Project Management Processes   6 Monte Carlo:  
Abstract: This paper describes the steps taken by our organization to develop, implement and integrate software engineering, systems engineering, supporting processes and project management process over a period of six years.
Notes: 20010919, Research Notes: 419
A Ait-Haddad, G Lévesque, J Aribot (1998)  Adoption et expérimentation d'un collecticiel à des fins d'enseignement: une approche progressive   Rouen:  
Abstract: Being aware of the growing pace of adoption of new technologies of information and communi-cation (NTIC) in many fields of activities, our mid-term research interest concerns the level of interest that education people should give to it and particularly the type of return that could be expected and reached in terms of student lear-ning at university level.This paper presents the progressive approach we have followed to adopt a groupware system with the intent of supporting collaborative group working of students in a typical project course" where group working is an essential condition of success. The first results indicate that interactions with professors have increased and that the context of use should really support interactivity to be effective."
Notes: 19981008, Research Notes: 477
G Lévesque, E Lefebvre (1998)  Une architecture des SI fondée sur les objets de métier de l'entreprise: un atout stratégique   Université de Paris II:  
Abstract: Information System Architecture has been considered since a few years as an essential part of the success of business computing systems. Formerly based on the modelling of data and functional decomposition, architecture should now evolve toward object-oriented techniques where data and functions are encapsulated in the same class as an object. In this paper, we present an original and particularly effective approach for its construction :· the representation of a generic model of business processes based on existing processes ;· the design of the domain object models by distinguishing actors, roles and objects involved in those processes ;· implementation using different technological approaches.Such a construct is well suited to support corporate strategy and offers many benefits :· system consistency and reuse of components ;· integration of processes and systems that supports them ;· rapid development of new components when applying this models to other processes.
Notes: 19981008, Research Notes: 295
C Y Laporte, A Guay, J Tousignant (1998)  The Application of a Systems Engineering Process to the Re-Engineering of an Air Defense System   8 Vancouver, Canada:  
Abstract: During the last five years, our organization has developed and implemented software and systems engineering processes. In this paper, we briefly describe the systems engineering process development, its application to the re-engineering oftwo major components of an air defense missile system, and some lessons learned from the two projects.
Notes: 20010925, Research Notes: 244
E Lefebvre, G Lévesque (1998)  Enterprise-Component Models   Paris, France:  
Abstract: Enterprise-wide Information System Architecture has been considered for a few years to influence the success of the MIS function.Meanwhile, the emerging Object Oriented (OO) techniques hold methods that will allow to :1) develop faster and2) distribute systems across internet and intranet networks.Today, component-based development (CBD), a natural evolution of OO development, appears to be the best development approach, mainly because of its capacity for reusability and, therefore, its potential for saving time and effort. The market for CBD tools and frameworks is rising at 80% per year.Initially based on data and function models, the architecture has to evolve towards OO techniques, thus expanding its role to serve as a foundation for component-based development.In this paper, we present an original and particularly effective method to build such an Enterprise-wide Information System architecture. The method encompasses:· adaptation of a generic process model, based on Porter value chain, to the enterprise;· design of Enterprise-Component Models by identifying actors, roles and objects involved in processes ;· creation of a component library from these models. We describe how to build the enterprise-component models, starting from a business process model and representing it in a generic pattern; this pattern is then used at a higher level to identify and represent enterprise components. The method is illustrated step by step to get the high-level model and an example of a typical enterprise-component is given. Such a method offers many advantages :· system consistency and reusability of components ;· integration of processes and systems that support them ;· rapid development of new components when applying these models to other processes.A component library, the most important result of the method, can then be expanded in several ways, as more and more components become available from software or application vendors., Component Models presented in this article result from a work being done by Éric Lefebvre and Peter Coad, in order to write a book entitled Enterprise-Component Models ", to be published by Prentice-Hall, in spring 1999."
Notes: Research Notes: 291
C Y Laporte, N R Papiccio, S Trudel (1998)  A Software Factory for the Canadian Government Year 2000 Conversion Program   11 Monte Carlo:  
Abstract: A Year 2000 software Factory has been established, in Canada, to re-engineer major systems of the Canadian Government mainly for real-time embedded systems. This paper is divided in three sections. In the first section the elements of a software factory and its implementation in the Factory are described. In section two the Year 2000 conversion process is described. Finally, lessons learned are presented.
Notes: 20010926, Research Notes: 259
P Morris, J -M Desharnais (1998)  Measuring ALL the Software not just what the Business Uses (New Methods for Measuring Software in Outsourcing Contrats)   20 London, UK: UKSMA  
Abstract: Function Point Analysis (FPA) is used by organisations worldwide as one of the measures used to establish the baseline size of their software assets in outsourcing contracts. This paper introduces new techniques, which enable all the functionality delivered and worked on by the supplier to be included in the productivity performance monitoring of these contracts. Typically only the business applications layer can be measured using FPA. The infrastructure software e.g. Utilities, device drivers and gateway applications, are usually overlooked because FPA is not designed to, nor easily adapted to, measuring internal layers of functions not delivered to the business user. This new Full Function Point Technique, developed by the University of Quebec in Montreal and SELAM, is a refinement of the FPA technique. It is no longer limited to only measuring MIS type applications but was specifically designed to meet the needs of organisations that build and support infrastructure applications, real-time and embedded software.
Notes: 19990323, Research Notes: 80
P Morris, J -M Desharnais (1998)  Measuring ALL the Software not Just what the Business Uses   Orlando, Florida:  
Abstract: Function Point Analysis (FPA) is used by organisations worldwide as one of the measures used to establish the baseline size of their software assets in outsourcing contracts. This paper introduces new techniques, which enable all the functionality delivered and worked on by the supplier to be included in the productivity performance monitoring of these contracts. Typically only the business applications layer can be measured using FPA. The infrastructure software e.g. Utilities, device drivers and gateway applications, are usually overlooked because FPA is not designed to, nor easily adapted to, measuring internal layers of functions not delivered to the business user. This new Full Function Point Technique, developed by the University of Quebec in Montreal and SELAM, is a refinement of the FPA technique. It is no longer limited to only measuring MIS type applications but was specifically designed to meet the needs of organisations that build and support infrastructure applications, real-time and embedded software.
Notes: 19980924, Research Notes: 79
N Kececi, M Modarres (1998)  Software Development Life cycle Model to Ensure Software Quality   7 New York, USA:  
Abstract: In this paper, the Goal Tree Success Tree and Master Logic Diagram (GTST-MLD) is proposed to model software development life cycle to ensure software quality based on meeting the criteria for high integrity safety systems. The GTST-MLD- based software development life cycle framework allows one to (1) show how a local change affects other phases of development; (2) GTST-MLD hierarchically represent software development life cycle so as to identify missing and incomplete requirements; (3) it is easy to automate on computers, to expand and update.
Notes: 20011122, Research Notes: 61
1997
C Y Laporte, N R Papiccio (1997)  Development and Integration of Engineering Processes at Oerlikon Aerospace   8 Los Angeles:  
Abstract: In order to reduce cycle time, increase customer satisfaction and lower costs, Oerlikon Aerospace has initiated, in 1992, a project to define and implement software and systems engineering processes. The initiative started by performing a formal assessment of current software engineering practices. An action plan was developed and multi-functional workinggroups were tasked to define and facilitate the implementation of software processes. A second initiative was started, in 1995, with the objective of defining and implementing a systems engineering process, and integrating to the systems engineering process the software engineering process already in use.
Notes: 20010925, Research Notes: 248
(1997)  Software Engineering & Software Metrics - A Québec-Swiss Seminar   Zurich: Université du Québec Montréal  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/sesm97/sesm97.htm, 19970528, Research Notes: 486
1996
E Foltin (1996)  The Software Measurement Laboratory at Magdeburg   15 Montreal: Université du Québec à Montréal  
Abstract:
Notes: http://www.info.uqam.ca/Labo_Recherche/Lrgl/news/95-96/isbsg/foltin.zip, Research Notes: 352
S Oligny (1996)  Improved Effort-Duration Productivity Models   19 Montreal: Université du Québec Montréal  
Abstract:
Notes: 20000114, Notes: http://WWW.info.uqam.ca/Labo_Recherche/Lrgl/news/95-96/isbsg/isbsg.htm, Research Notes: 102
K Paton (1996)  Last Year's Faults and Next Year's Failures : Can this Year's Standards Help Us?   Montreal:  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/ses96/paper/paton.htm, Research Notes: 135
(1996)  International Software Benchmarking: Engineering and Measurement Issues   Montreal: Université du Québec Montréal  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/news/95-96/isbsg/isbsg.htm, Research Notes: 497
(1996)  Forum on Software Engineering Standards Issues (SES'96)   Montreal:  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/ses96.htm, Research Notes: 269
M Zitouni (1996)  Modèle de maturité pour la maintenance   Montreal: Applied Software Engineering Center - CRIM  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/publi/presenta/zm199601.zip, Research Notes: 226
J -M Desharnais (1996)  Post-Measurement Validation Procedures of Function Point Counts   University of Regensburg, Germany:  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/ses96/paper/desharna.htm, 19970521, Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/ses96.htm, Research Notes: 520
C Y Laporte (1996)  Software Process Engineering Activities in Québec   16 Brighton, U.K.:  
Abstract: This paper is divided in three parts. The first part will present the Applied Software Engineering Centre, its history, its mission, and the services offered. The second part will present a brief profile of organisations that have undertaken to improve software processes utilising mainly the Capability Maturity Model developed by the Carnegie Mellon University Software Engineering Institute. The third part will present lessons learned in process improvement. This paper is an update of a presentation given on the occasion of a workshop held at GMD, a German software research centre. (Laporte 1993, 1995, 1996a).
Notes: 20010926, Research Notes: 418
C Y Laporte, N R Papiccio (1996)  Software and Systems Engineering Process Improvement at Oerlikon Aerospace   12 Montréal, Québec:  
Abstract: In order to reduce cycle time, increase customer satisfaction and lower costs, Oerlikon Aerospace has initiated, three years ago, a project to define and implement software and systems engineering processes. The initiative started by performing a formal assessment of current software engineering practices. An action plan was developed and multi-functional working groups were tasked to define and facilitate the implementation of software processes. A second initiative was started a year ago with the objective of defining and implementing a systems engineering process and, integrating to the systems engineering process the software engineering process already in use.
Notes: 20010925, Research Notes: 260
J -M Desharnais (1996)  Function Point Validation Process   Montreal: Université du Québec Montréal  
Abstract:
Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/news/95-96/isbsg/desharna.zip, Notes: http://saturne.info.uqam.ca/Labo_Recherche/Lrgl/news/95-96/isbsg/isbsg.htm, Research Notes: 780
1995
S Oligny (1995)  Project Management in a Client-Server Environment   Montréal, Québec:  
Abstract:
Notes: 20000117, Research Notes: 101
D St-Pierre (1995)  Function Point Analysis - Issues and Directions   Berlin:  
Abstract:
Notes: Research Notes: 170
1994
C Y Laporte (1994)  Process Improvement and the Management of Change   213-216 Dallas, Texas: IEEE Computer Society  
Abstract: The management of change is a key element of a successful process improvement program. Based on the experience described in this position paper, process improvementactivities, i.e. on-site assessment, action plan elaboration and action plan implementation activities can be facilitated by carefully managing the human issues of a major changeprogram.
Notes: 20010925, Research Notes: 415
S Oligny (1994)  The Role of a GIS in the Management of Dam Monitoring Data   Palm Spring, CA:  
Abstract:
Notes: 20000117, Research Notes: 100
1993
D St-Pierre (1993)  Integration of Maintenance Measurement   In: IEEE 374-375 Montréal, Québec: IEEE  
Abstract:
Notes: none, Notes: Manual entry, Research Notes: 168
1992

Other Professional Contributions or Documents

2000
R Dupuis (2000)  Program Committee of Conference on Software Engineering Education and Training (CSEE&T)   [Other Professional Contributions or Documents]  
Abstract:
Notes: 19991104, Notes: http://www.se.cs.ttu.edu/CSEET2000/, Research Notes: 725
1997
1996-1999
1996
1995
(1995)  VALID: Validation of Measurement in Software Engineering - Collaborative R & D Project   [Other Professional Contributions or Documents]  
Abstract:
Notes: Type of Work: Successful Funding Proposal to NSERC, Research Notes: 1
-1995

Masters theses

2009
2008
2007
Abu Talib, Manar (2007)  Exploratory Study on an Innovative Use of COSMIC-FFP for Early Quality Assessment, PhD Thesis   Montréal, Canada:  
Abstract:
Notes: Type of Work: Ph. D. Thesis, Research Notes: 346
R Al-Qutaish (2007)  SPQMM: A Software Product Quality Maturity Model using ISO/IEEE Standards, Metrology, and Sigma Concepts, PhD Thesis   Montréal, Canada:  
Abstract: In the software engineering literature, there are numerous maturity models for assessing and evaluating a set of software processes. By contrast, there is no corresponding maturity model for assessing the quality of a software product. The design of such a model to assess the quality of a software product therefore represents a new research challenge in software engineering.Our main goal is to make available to industry (and consumers) a maturity model for assessing and improving the quality of the software product. This Software Product Quality Maturity Model (SPQMM) consists of three quality maturity submodels (viewpoints) that can be used not only once the software product has been delivered, but also throughout the life-cycle:? Software Product Internal Quality Maturity Model ? SPIQMM,? Software Product External Quality Maturity Model ? SPEQMM, and? Software Product Quality-in-Use Maturity Model ? SPQiUMM.In this thesis, we introduce the Software Product Quality Maturity Model (SPQMM), which could be used from three different viewpoints: the software product internal quality, the software product external quality, and the software product quality in-use. This quality maturity model is a quantitative model, and it based on the ISO 9126 (software product quality measures), ISO 15026 (software integrity levels), IEEE Std. 1012 (software verification and validation) and on six-sigma concepts. To build such a quality maturity model, we have combined the set of quality measures into a single number for each quality characteristic by assuming that all the measures for a single quality characteristic have an equal weight in the computation of a single value for that quality characteristic (they all make an equal contribution), yielding a quality level for that quality characteristic. The resulting quality level is then transformed based on the software integrity level into a sigma value positioned within a quality maturity level.
Notes: Type of Work: Ph. D. Thesis, Research Notes: 363
2005
A Sellami (2005)  Processus de Vérification des Mesures de Logiciel selon la Perspective de Métrologie, PhD Thesis   Montréal:  
Abstract:
Notes: Type of Work: Ph. D. Thesis, Research Notes: 158
2004
M Sioud (2004)  Mesure de la taille fonctionnelle en COSMIC-FFP des logiciels développés selon le processus RUP   Montreal:  
Abstract:
Notes: Tertiary Author: Co-directeur: N. Séguin Directeur de recherch: A. Abran, Type of Work: Projet en Génie Logiciel, Maîtrise en Génie Logiciel, Research Notes: 165
J -M Desharnais (2004)  Application de la Mesure Fonctionnelle COSMIC-FFP : une Approache cognitive, PhD Thesis   Montréal:  
Abstract:
Notes: Type of Work: Ph. D. Thesis, Research Notes: 449
2003
S Azzouz (2003)  Calcul avec ISO 19761 de la taille fonctionnelle des logiciels développés avec Rational Unified Process   Montreal:  
Abstract: Ce projet de mémoire a pour objectif principal l’automatisation du calcul de la taille fonctionnelle avec laméthode COSMIC-FFP pour des logiciels développés selon le processus RUP. Le calcul peut se faire à troisniveaux d’abstraction du cycle de développement du logiciel :1. Le premier calcul évalue la taille fonctionnelle à un niveau d’abstraction très élevé. Cela permetd’évaluer l’importance du logiciel en terme du nombre de cas d’utilisations qu’il renferme, dunombre d’acteurs et du nombre d’interactions mises en oeuvre.2. Le deuxième niveau d’abstraction permet d’évaluer l’importance du logiciel en terme du nombretotal de scénarios et du nombre d’objets participants à la réalisation des cas d’utilisations.3. Le troisième niveau d’abstraction permet de mesurer la taille du logiciel en terme du nombre totalde fonctions qu’il réalise, soit la taille fonctionnelle qui est caractérisée par le nombre d’échange dedonnées entre l’enceinte du logiciel et son environnement, selon la norme ISO 19761.La procédure de calcul automatique de la taille fonctionnelle se base sur les artefacts conceptuels dulogiciel à mesurer, principalement les diagrammes de cas d’utilisation et les diagrammes de séquence.Ces artefacts sont les résultats des phases d’analyse et de conception et sont produits avec l’outilRational Rose. Il a été donc impératif de faire un rapprochement entre les concepts de base UML (surlesquels est basé l’outil Rational Rose) et les notions de la méthode COSMIC-FFP (ISO 19761).Aussi, pour extraire les propriétés des artéfacts du logiciel à mesurer, il a été fait usage du langage deprogrammation REI (Rose Extensibility Interface) qui est interne à Rational Rose.L’outil de calcul automatique peut être utilisé tout au long du cycle de développement du logiciel selon leprocessus RUP. Les phases où il est intéressant de faire appel aux services de l’outil sont multiples,incluant en particulier l’étape de planification de projet.
Notes: Tertiary Author: Co-directeur: R. Dupuis Directeur de recherch: A. Abran, Type of Work: Projet en Génie Logiciel, Maîtrise en Génie Logiciel, Research Notes: 479
2002
Y Guessous (2002)  Développement et déploiement des Processus Logiciels chez Astec APS? (Development and Deployment of Software Engineering Processes at Astec APS)   Montréal:  
Abstract: Aujourd'hui, les organisations sont de plus en plus dépendantes de l'informatique. Avec le développement du logiciel dans tous les domaines, les systèmes offrent des fonctions de plus en plus sophistiquées, les clients exigent une qualité toujours plus grande pour un prix raisonnable. Pour atteindre ces objectifs, il est nécessaire d'améliorer les processus de développement et de maintenance des logiciels.Notre travail s'inscrit dans le cadre d'un programme d'amélioration des processus logiciels chez la firme Astec APS. Ce programme vise à développer un plan d'action et la mise en ?uvre des processus logiciels. Ce programme permettra à la compagnie d'atteindre le niveau 2 de CMM (Capability Maturity Model) de SEI (Software Engineering Institute) en juin 2002, avant de poursuivre le développement des processus pour conquérir le niveau 3. Ce travail comporte l'identification et la gestion des risques liés au programme d'amélioration, ainsi que des exemples des processus développés.La démarche méthodologique utilisée dans ce projet est basée sur le cadre d'expérimentation élaboré par Basili (Basili, Selby et Hutchens, 1986). Ce cadre conceptuel comprend quatre phases de déroulement d'une expérience : la définition, la planification, l'exécution et l'interprétation.Ce programme d'amélioration des processus est basé sur le modèle IDEAL de SEI. Ce modèle décrit les activités qu'on applique à une démarche d'amélioration des processus. À chaque itération du cycle, on vise à améliorer et raffiner les processus afin d'avoir une meilleure qualité.Enfin, ce rapport comporte aussi une étude des documents qui permettront à Astec APS d'atteindre son objectif.
Notes: Type of Work: Master, 20020109, Research Notes: 288
2001
H -W Tang (2001)  Programme de métriques au Département 18 DE EMSYS Inc.   Montréal:  
Abstract: Dans un domaine industriel exploitant les technologies de pointe, le Département 49 développe et maintient les logiciels embarqués à bord des CF-18 des forces canadiennes. Un programme de métriques offrirait au Département 49 certains avantages comme un meilleur suivi des projets, mais également un outil de prévision et de justification vis-à-vis de son client. Ainsi ce projet de fin de Maîtrise se traduit par la réalisation et la mise en place d'un programme de métriques pour le Département 49.Le Département 49 est subdivisé en cinq départements : ESE, TSS, DMS, ILS et QCO. Le programme de métriques à développer concerne précisément ces cinq départements, pour lesquels un objectif de deux métriques par département a été défini. En se basant sur les directives du standard d'ISO/IEC CD 15939, ce programme se distingue par ses deux principales étapes : Le développement du programme de métriques et la mise en place de ce programme. Le développement du programme tire ses origines d'un projet de métriques réalisé dans le cadre du cours MGL805 Vérification et Assurance Qualité et d'un document de métriques ébauché par le Département 49. Avec les métriques du cours MGL805 et en étudiant l'environnement organisationnel du Département 49 et son document de métriques (R000_000028_RP version Basic), une nouvelle version du document de métriques du Département 49 a été développée (document R000_000028_RP version Rev A). Conséquemment, un outil logiciel dont le but est de gérer les métriques a été développé avec Oracle. Cependant, ceci n'est seulement qu'un point de départ d'un long développement continu de ce programme de métriques, car il faudra attendre quelques mois pour observer les premiers résultats et avoir l'opportunité d'apporter des améliorations au programme de métriques.Les accomplissements dans ce stage ont été l'élaboration d'un programme de métriques et sa préparation pour son opérabilité. C'est le temps et l'accumulation d'expériences qui permettront d'affiner ce programme et de fournir des avantages au Département 49.Un bilan de ce projet peut être dressé par rapport aux objectifs définis par le Département 49, c'est-à-dire l'élaboration d'un programme de métriques et la livraison d'un outil avec deux métriques par département prêtes à opérer. D'un autre côté, cette expérience a permis de tirer certaines leçons relatives à certains préceptes du management. Finalement, ce programme de métriques ne fait que commencer et exigera certainement des efforts afin de maintenir et d'améliorer le programme de métriques.
Notes: Type of Work: Master Thesis, 20010107, Research Notes: 202
F Amar (2001)  Ingénierie des exigences dÂ’un jukebox numérique (Requirements Engineering of a Digital Jukebox)   Montréal:  
Abstract: TouchTunes Digital Jukebox Inc. est impliquée dans la distribution des applications de la musique-à-la carte. Elle a conçu et développé un juke-box numérique qui a annoncé l’émergence d’une nouvelle génération des juke-boxes aux Etats-Unis. TouchTunes s’attend à ce que les juke-box numériques remplacent les Juke-box actuels qui sont soit à CD soit à 45 tours.La décision de redéveloppement du juke-box numérique est due aux limitations du produit actuel qui nécessite des maintenances répétées, aux nouveaux besoins et exigences des intervenants pour améliorer la position de l’entreprise et augmenter son chiffre d’affaire.Le projet de l’ingénierie des exigences du Juke-box numérique, accepté par l’École de Technologie Supérieure, comme projet de maîtrise en génie logiciel, traite de la phase de l’analyse et de la spécification des besoins du cycle de vie du logiciel. L’objectif du projet est de développer et gérer les exigences de la nouvelle génération du juke-box numérique. Les livrables sont constitués d’un document vision qui définit la vision, la portée du projet, les caractéristiques du logiciel et les exigences non fonctionnelles, des documents de cas d’utilisation identifiés incluant les exigences allouées, les diagrammes d’états modélisant les cas d’utilisation les plus complexes. La traçabilité entre les différents niveaux des exigences est également effectuée pour s’assurer que le produit satisfait tous les besoins initialement définis. Nous avons procédé à une démarche en deux étapes :a- Étape 1 : Développement des exigences qui consiste à expliciter, analyser et spécifier les exigences et ensuite documenter et vérifier la qualité de la spécification des exigences.b- Étape 2 : Gestion des exigences qui consiste à mettre à jour les attributs, contrôler les différentes versions du produit, contrôler le changement des exigences et effectuer la traçabilité.La réalisation du projet a été assistée par le logiciel de la gestion des exigences Requisite Pro et le logiciel de modélisation Rose de Rational.Toute la documentation réalisée est en anglais.
Notes: Type of Work: Master, 20020109, Research Notes: 504
H -W Tang (2001)  Programme de métriques auDépartment 18 de EMSYS Inc.   Montréal:  
Abstract:
Notes: 2001, Research Notes: 203
L Primera (2001)  Mesurer la taille fonctionnelle d'un échantillon des applications centrex et établir un modèle de productivité pour ces activités de maintenance chez ABC Inc.   Montréal, Québec:  
Abstract: Au cours des dernières années, quelques études dans le domaine du génie logiciel ont tenté de s'attaquer à des problèmes inhérents de la maintenance de logiciels afin de déterminer ou d'identifier des facteurs qui occasionnent l'augmentation des coûts ainsi que des prévisions inconsistantes des efforts et des échéanciers dans cette phase du cycle de vie de logiciel.Ce projet s'insère dans une démarche chez ABC Inc. et a pour but principal d'établir un modèle d'estimation de productivité de la maintenance. Le moyen utilisé est la mesure de la taille fonctionnelle d'un échantillon des applications CENTREX avec la méthode FFP proposé par le Laboratoire de Recherche en Gestion des Logiciels (LRGL) de l'UQAM. Ce projet en plus de vérifier l'apport de la méthode FFP lors de la mesure d'un logiciel intégrateur (services en ligne avec outils linguistiques). Afin d'atteindre ce but, on a entrepris certaines étapes telles que: la mesure de l'échantillon des applications CENTREX en utilisant la méthode de mesure des points de fonction étendus (COSMIC-FFP version 2.0 selon la norme ISO/IEC 14143-3 pour mesurer la taille fonctionnelle des projets), ensuite l'analyse statistique des données obtenues au moyen des divers tests statistiques et des critères de qualité et fiabilité de bons modèles de productivité et finalement l'établissement des modèles de productivité considérant la taille fonctionnelle, l'effort et les autres divers facteurs proposés dans la revue de littérature. Deux modèles de productivité ont été retenus : un modèle simple qui peut décrire la relation positive entre la taille fonctionnelle et l'effort (une fonction non linéaire: Puissance ") et un modèle de régression multiple incluant comme variable supplémentaire la complexité fonctionnelle du projet en fonction de la taille fonctionnelle.Les résultats obtenus nous ont permis de consolider les résultats des autres études empiriques réalisées récemment par des étudiants du LRGL dans le domaine de la maintenance. De plus, des incertitudes de la mesure dans ce nouveau domaine d'expérimentation (intergiciel) ont été surmontées permettant ainsi d'obtenir des résultats concluants sur l'efficacité de la méthode FFP dans ce domaine, ce qui pourra servir de point de départ pour d'autres recherches."
Notes: Type of Work: Master Thesis, 20010612, Research Notes: 141
I Ndiaye (2001)  Mesure de la qualité des estimations du progiciel d'estimation SLIM   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 20010518, Research Notes: 87
A Sellami (2001)  Analyse comparative des modèles de maintenance du logiciel entre ISO/IEC 14764, SWEBOK et les travaux de Pigoski   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 20010518, Research Notes: 157
2000
P Nolin (2000)  Vérification de la reproductibilité de la méthode des points de fonctions étendus version 2.0 selon la norme ISO/IEC 14143-3   Montréal:  
Abstract: Le but du projet Vérification de la reproductibilité de la méthode des points de fonctions étendus COSMIC-FFP version 2.0 selon la norme ISO/IEC 14143-3 " est de déterminer le taux de la reproductibilité de la méthode de mesure de taille fonctionnelle des points de fonctions étendus, développée par le Laboratoire de recherche en gestion des logiciels de l'UQAM en 1997. L'envergure du projet se limite à déterminer le taux de répétitivité, la reproductibilité et la précision dans le contexte d'une expérimentation en industrie. L'expérimentation effectuée pour trouver ces estimations reproduit l'expérience effectuée par Kemerer en 1993 sur la méthode des points de fonction traditionnelle version 3.0. Cette expérience fut réalisée dans un contexte idéal, soit : mesureurs de la même entreprise, connaissant la méthode de mesure, le domaine d'affaires et l'application mesurée.Pour reproduire l'expérience sur la méthode des PFE, un système en temps réel, maintenu par l'unité Maintenance des applications du contrôle de TransÉnergie, Hydro-Québec, fut mesuré. Un sous-ensemble des mesures, correspondant aux conditions équivalentes des expériences de Kemerer, fut analysé pour déterminer l'ampleur relative de l'erreur (MRE) pour la répétitivité et la reproductibilité, et un pourcentage de précision. Les principaux résultats donnent une médiane des MRE pour la répétitivité de 5%, une médiane des MRE pour la reproductibilité de 7%, et un pourcentage de précision de 21%. Les résultats obtenus sont très positifs si on considère le jeune age de la méthode de mesure. Il faut rappeler que ces résultats furent obtenus à partir d'un sous-ensemble restreint de mesures réalisées dans un contexte optimal. L'analyse de l'ensemble complet des mesures donne des résultats moins concluants, mais normaux dans un contexte non contrôlé ; ceux-ci seraient les mêmes pour toute méthode évaluée dans un contexte similaire. Leur analyse a cependant permis d'identifier des zones d'interprétation qui pourraient possiblement être éclaircies dans une version future du manuel de mesure de COSMIC-FFP."
Notes: Type of Work: Master, 20000929, Research Notes: 93
I Silva (2000)  Mesurer la taille fonctionnelle du logiciel ABC et bâtir un modèle de productivité pour les activités de maintenance adaptative dans une entreprise   Montréal:  
Abstract: Souvent plusieurs produits informatiques ne correspondent pas aux exigences ou aux besoins exprimés par le client, dépassant les prévisions de coûts, d'efforts et d'échéanciers avec un faible niveau de qualité. Pour cet aspect, un grand nombre d'organisations, entre autres la compagnie XXX, ont besoin de mettre en place des méthodes pour une mesure uniforme afin de pouvoir contrôler et améliorer leur processus de développement et surtout d'entretien.À cet effet, ce projet examine l'influence de divers facteurs en utilisant la méthode des points de fonction étendus pour mesurer la taille fonctionnelle des projets sur l'effort requis lors des activités de maintenance adaptative chez XXX. Ceci nous a permis d'établir une relation entre l'information disponible (effort, ligne de code modifiée, complexité etc.) avec les points de fonction étendus mesurés. Cette relation était considérée comme base de divers modèles de productivité pour les projets d'entretien de l'une des applications les plus importantes dans le domaine en temps réel nommée DPU, laquelle fait partie intégrante du système ADATS. Ces modèles considèrent l'effort puisqu'il est un facteur primordial pour déterminer les coûts et les échéanciers d'un logiciel. Pour réaliser ce projet, on a premièrement effectué le comptage de ce système DPU, qui jusque là avait 21 projets de maintenance adaptative au niveau du logiciel. Cette information, avec tout le reste de la documentation disponible sur les projets, constituaient notre banque de données. Notre démarche consistait alors à appliquer des outils statistiques sur cette information, ce qui nous permettait d'établir des modèles de productivité, lesquels identifiaient plusieurs caractéristiques propres des projets de maintenance adaptative du logiciel DPU.Les modèles utilisés dans cette recherche révèlent que les points de fonction étendus à eux seuls n'expliquent pas l'effort requis pour réaliser un projet de maintenance adaptative. Ceci ne nous permettait pas d'utiliser la relation de la taille fonctionnelle et l'effort comme modèle de productivité. La qualité de cette relation était très faible et non adéquate dans les modèles de productivité à une seule variable indépendante avec l'analyse de régression et le coût unitaire moyen.Toutefois, une analyse plus détaillée des facteurs pouvant affecter les activités de maintenance nous a permis de voir que la qualité de cette relation entre la taille fonctionnelle et l'effort s'était améliorée au niveau de l'influence du facteur de complexité fonctionnelle des projets. Ce facteur était significatif comme variable indépendante dans le modèle de productivité retenu, affectant l'effort dans les activités d'entretien. Il a été également constaté que la méthode de points de fonction étendus est adéquate pour mesurer des projets de maintenance dans le domaine en temps réel. Cette recherche donne donc des résultats satisfaisants, ce qui contribue à l'utilisation de cette méthode dans ce domaine pour mesurer des logiciels et augmente ainsi les possibilités de généralisation de ces résultats dans l'entreprise XXX, pour d'autres entreprises et en général pour la communauté scientifique.
Notes: Type of Work: Master Thesis, 20000914, Research Notes: 164
M Ben Ezzeddine (2000)  Automatisation du modèle QEST   Montréal:  
Abstract: Luigi Buglione, chercheur à l'ESI (European Software Institute) en Espagne et Alain Abran, professeur et directeur du Laboratoire de recherche en gestion des logiciels à l'UQAM, ont développé le modèle QEST(Quality factor, Economic, Social and Technical dimensions) pour représenter en trois dimensions la performance d'un projet de développement d'un logiciel. Ce modèle intègre, en une seule représentation, les dimensions économique, social et technique pour mesurer et évaluer la qualité d'un logiciel tout en considérant les aspects quantitatif et qualitatif. La base théorique géométrique de ce modèle multidimensionnel est très solide, mais forcément très complexe. De plus, les procédures d'utilisation sont non seulement manuelles, mais également nombreuses et sujettes par conséquent à des erreurs de manipulation. Au niveau pratique, ce modèle est donc difficile à comprendre et présente certains inconvénients. Ce modèle très complexe ne pouvait donc être utilisé que par quelques rares experts du domaine au niveau international. Une utilisation plus courante en industrie demandait donc que toutes les parties complexes du modèle QEST soient identifiées et même cachées en arrière plan de façon à créer une interface beaucoup plus conviviale pour les utilisateurs de façon à leur permettre de focuser leur attention sur la collecte de données, somme toute relativement simple chacune, mais dont la manipulation subséquente était hautement complexe, et par conséquent très problématique. Le but de ce mémoire consiste à concrétiser ce modèle en une application sur Internet qui permet de faciliter la compréhension et l'utilisation de QEST et d'automatiser le traitement des fonctions manuelles.
Notes: Type of Work: Master Thesis, 20000627, Research Notes: 526
A Sellami (2000)  Analyse comparative des modèles de maintenance du logiciel entre SWEBOK, ISO/IEC 14764 et la littérature   Montréal:  
Abstract:
Notes: Type of Work: Proposition, 20010306, Research Notes: 156
L Molinié (2000)  L'analyse des relations d'agence dans l'impartition des logiciels   Montréal:  
Abstract: Ce document porte sur les problèmes d'agence dans l'impartition des logiciels. L'impartition est analysée comme un mode d'organisation hybride entre le marché et la firme qui utilise des mécanismes propres à ces deux modes d'organisation. Le produit logiciel est défini comme le résultat d'un processus complexe, lequel permet d'enchâsser dans le logiciel les connaissances de tous les participants à son développement. Dans ce processus, plusieurs relations d'agence sont susceptibles de se produire entre les participants : entre les utilisateurs et les informaticiens, entre les distincts utilisateurs et entre les divers informaticiens spécialistes intervenant dans les différentes étapes du développement et de la maintenance du logiciel. Ce papier présente aussi un compte rendu des principales recherches dans le domaine des relations d'agence dans l'impartition des systèmes d'information. Ces dernières permettent de constater la pertinence de la Théorie de l'agence dans la compréhension de l'impartition des systèmes d'information en général et des logiciels en particulier. Elles illustrent la pluralité des relations d'agence et des mécanismes incitatifs orientés au meilleur design contractuel, celui qui minimise les coûts d'agence. Finalement, on discute des limites de ces recherches par rapport à la portée de la preuve fournie, au traitement de la spécificité du logiciel, à l'élargissement des hypothèses de l'agence et à l'intégration de connaissances en provenance d'autres outils théoriques tendant à améliorer la compréhension du sujet d'études.
Notes: Type of Work: Papier théorique Doctorat, 20000620, Research Notes: 72
I Ndiaye (2000)  Mesure de la qualité des estimations du progiciel d'estimation SLIM   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 20000705, Research Notes: 86
M Taleb (2000)  Modèle IBISA: un framework pour la conception de système interactif basé internet   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 20000915, Research Notes: 198
1999
T V Ho (1999)  Un réseau de neurones à décharges pour la reconnaissance de processus spatio-temporels   Montréal:  
Abstract: Ispite of the fact that neural networks have been applied successfully in static pattern recognition, their applicability to the processing or the recognition of dynamic non stationary patterns (where time is an essential component) are still a great challenge and unsolved. Recent works in neurophysiology indicate that complex behaviors such as chaos, grouped synchronization, and spiking synchronization of certain cerebral zones could intervene in the processes of memorizing and of perception. Moreover, mathematical tools related to the study of non linear dynamics allow to widen our comprehension of certain neuronal mechanisms. These recent concepts open a new way in the development of neural networks.Rather than to solve a given problem or to improve a known technique, the fundamental idea of this thesis is to develop and to test a neural network architecture based on new principles inspired from chaotic dynamics and from observations in neurophysiology. The goal of the research presented here is thus to propose and to study an innovative neural network architecture that allows to treat temporal information of non stationary spatio-temporal processes.This work adopts a multidisciplinary character and uses the following available tools: simulators of artificial neural networks and simulators of the auditory peripheral system.The contributions of this thesis covers two aspects: - on the aspect of innovations, we propose a new neural network architecture inspired of layer IV of the cortex. This architecture has characteristics that are appropriates to the processing and recognition of non stationary dynamic processes. - on the aspect of applications, we have experimentally shown that the proposed network is able to process and to recognize non-stationary spatio-temporal processes through tasks such as recognizing noisy digits, processing temporal sequences, detecting movement in sequences of images, processing envelopes obtained from a bank of cochlear filters and realizing a prototype of speaker recognition system.
Notes: Type of Work: Ph.D., 19990429, Research Notes: 604
V Stroian (1999)  Un environnement automatisé pour un processus transparent d'estimation fondé sur la base de données du International Software Benchmarking Standards Group (ISBSG)   Montréal:  
Abstract: La présente activité de synthèse s'inscrit dans le cadre du programme de maîtrise en informatique de gestion offert par l'Université du Québec à Montréal.L'objectif de cette activité de synthèse est de développer un environnement automatisé pour un processus transparent d'estimation fondé sur la base de données historiques de l'International Software Benchmarking Standards Group (ISBSG). Ce développement s'inscrit dans le cadre du programme de recherche du Laboratoire de recherche en gestion des logiciels de l'UQAM.La problématique de recherche que nous avons proposée de résoudre est la suivante : comment transformer un processus boîte noire " d'estimation en un processus " boîte transparente " fondé sur la base de données de l'International Software Benchmarking Standards Group (ISBSG) ?Plusieurs études montrent que plus de deux tiers des projets de développement informatique dépassent très largement leurs délais ce qui engendrent des pertes considérables pour les entreprises. La décision de commencer ou de continuer un projet est souvent influencée par les estimations d'effort de développement. Malgré l'importance de bien estimer les gestionnaires ne possèdent pas d'outils capables de leur fournir l'information crédible au cours du processus d'estimation. Les bases de données historiques à l'appui des progiciels d'estimation ne sont pas accessibles, ce qui ne permet pas de déterminer la crédibilité des résultats et du processus d'estimation. Les progiciels actuels sont de type " boîte noire " ce qui limite l'analyse des résultats et ne permet pas d'en déterminer la fiabilité. Avec les opportunités offertes par l'existence de la base de données ISBSG, qui est la première grande base de données de projets informatiques disponible pour les chercheurs et les praticiens nous avons mis au point un environnement automatisé pour un processus transparent d'estimation. Cet environnement améliore le processus d'estimation des projets informatiques et il représente une contribution intéressante à ISBSG en donnant une valeur ajoutée à leur base de données."
Notes: Type of Work: Master Thesis, 19991123, Notes: Out Vinh Duong 00/04/27, Research Notes: 182
S Wolff (1999)  La place de la mesure au sein des principes fondamentaux du génie logiciel   Montréal:  
Abstract: Le génie logiciel est une discipline encore mal établie. Contrairement à ce qu'indique son nom, il n'est pas accepté comme branche du génie. En fait, est-ce du génie? Nous nous sommes posé la question et nous avons pensé qu'un élément de réponse était d'y analyser la place de la mesure, puisque cette dernière occupe généralement une place de taille en génie. M. Parnas, une autorité du génie logiciel, avait suggéré de tenter de déterminer les principes fondamentaux du génie logiciel afin de faire évoluer le domaine en tant que profession reconnue. L'identification de ces principes permettrait ainsi de s'attaquer à des problèmes précis tel que le manque de cohérence dans le corpus de normes, la reconnaissance de la discipline comme faisant partie du génie, l'établissement des programmes de formation en génie logiciel et la définition des compétences d'un ingénieur en logiciel. Une étude Delphi a été effectuée par des chercheurs du laboratoire de recherche en gestion de logiciels de l'Université du Québec à Montréal afin d'arriver à identifier une première liste de principes. Notre recherche s'insère dans ces démarches. Puisque la mesure tient habituellement une place importante dans les disciplines du génie, nous voulons en évaluer la place au sein des principes fondamentaux du génie logiciel dans le but de mieux cerner le niveau d'évolution de la discipline. Les principes dont on parle ici sont ceux identifiés par l'étude Delphi mentionnée plus haut et par les deux études subséquentes dont nous parlons dans le paragraphe qui suit.Notre objectif principal est de produire une série de questions sur des incertitudes concernant la mesure en génie logiciel. Ces questions pourront servir de base pour des recherches subséquentes dans le domaine. Afin d'atteindre cet objectif, nous avons entrepris certaines démarches : Nous avons utilisé les résultats de l'étude Delphi mentionnée plus haut afin de réaliser une deuxième étude Delphi et un sondage. Ceux-ci ont permis de consolider les résultats de la première étude Delphi. Nous avons également effectué une revue de littérature sur les thèmes suivants : le génie, le génie logiciel, les principes fondamentaux du génie logiciel, le génie logiciel en tant que branche du génie, la place de la mesure en génie logiciel. Ces démarches nous ont permis de conclure que la mesure n'est pas aussi utilisée en génie logiciel que dans les autres branches du génie. De plus, lorsqu'elle est utilisée, ce n'est pas toujours fait de manière rigoureuse, selon les règles de l'art. Notre recherche nous a permis d'obtenir une liste riche et longue d'incertitudes concernant la mesure en génie logiciel. Ce travail pourra servir de point de départ pour d'autres recherches sur le sujet, bien qu'il n'ait pas la prétention d'identifier toutes les incertitudes de la mesure dans ce domaine. Par contre, il nous montre qu'il y a encore beaucoup à faire afin d'améliorer la discipline du génie logiciel.
Notes: Type of Work: Master Thesis, 19990827, Research Notes: 219
R Valencia (1999)  Expérimentation d'une technique de mesure de la réutilisation fonctionnelle dans des projets   Montréal, Québec:  
Abstract: L'article Measurement of Functional Reuse in Maintenance " (Abran et Desharnais, 1995) identifie une méthode pour mesurer la réutilisation des composants logiciels dans les projets où des fonctionnalités ont été ajoutées aux applications existantes. La méthode proposée dans cet article, est basée sur la mesure de la réutilisation à partir d'une perspective fonctionnelle plutôt que technique. La présente étude se veut une vérification de cette méthode soit du point de vue théorique soit empirique. L'article en question est présenté dans l'appendice F.Les objectifs de cette recherche sont au nombre de deux :· Vérifier la généralisabilité de la méthode proposée par Abran et Desharnais (1995) à d'autres applications du domaine M.I.S.· Identification à l'aide des scénarios de test (simulations) des situations dans lesquelles le modèle produit des prévisions positives et négatives (en terme de jours personnes) concernant le développement des applications informatiques qui utilisent des composants fonctionnels réutilisables. Reliés aux objectifs, les livrables finaux du travail seront :· Un cadre de vérification du modèle · Différents scénarios de test (simulations).· Deux bases de données historiques de points de fonction. Elles ont été élaborées en partie par l'auteur de ce travail de recherche, à partir des projets informatiques provenant d'une institution financière canadienne et d'un organisme gouvernemental de Québec.Dans ce projet de recherche, on expérimente à partir de deux approches. La première approche théorique compare la méthode par rapport au processus de mesure et au cycle de vie d'une mesure proposé par Jacquet et Abran (1996). La deuxième approche consiste à vérifier les différents résultats de l'application de la méthode à partir de différents scénarios de tests. Ce travail de recherche permet de constater que la méthode de mesure est conforme au processus de mesure et au cycle de vie d'une mesure proposée par Jacquet et Abran (1996). Concernant la généralisation à d'autres contextes, le modèle proposé s'adapte facilement aux applications M.I.S. et permet de dégager certains bénéfices budgétaires(jours personnes) sur tous les contextes de travail utilisés dans cette recherche. Néanmoins, cette recherche se limite seulement aux applications M.I.S. car on n'a pas les données nécessaires pour sa vérification à d'autres domaines."
Notes: Type of Work: Master Thesis, 19990315, Research Notes: 211
1998
V Stroian (1998)  Un environnement automatisé pour un processus transparent d'estimation sur la base de données du International Software Benchmarking Standards Group (ISBSG)   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis (proposition d'activité de synthèse), 19980706, Research Notes: 181
S Wolff (1998)  La place de la mesure au sein des principes fondamentaux du génie logiciel   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis (proposition activité de synthèse), 19980706, Research Notes: 218
D Girard (1998)  Une méthode d'analyse du risque de projets de nouvelle technologie informatique   Montréal, Québec:  
Abstract: Ce travail de synthèse est une étude exploratoire qui a pour objectif de développer une méthode d'évaluation du risque associé à un projet d'innovation technologique dans une entreprise. Cette méthode est basée sur une technique structurée et a été développée pour s'adapter aux besoins spécifiques de chaque entreprise ou de chaque projet.Par innovation technologique en entreprise, nous entendons: toute nouveauté technologique pour l'entreprise. Cette innovation peut être un développement de système (d'une nouvelle technologie) ou l'implantation d'un nouveau produit technologique.La méthodologie adaptée consiste en une série d'étapes ou d'activités qui s'insèrent dans la planification du projet global.
Notes: Type of Work: Master Thesis, 19990107, Notes: Out Vinh Duong 99/09/08, Research Notes: 360
C Chau Tran (1998)  Approche exploratoire pour le design d'une méthode d'estimation en amont de la taille fonctionnelle   Montréal:  
Abstract: Explorer la faisabilité d'évaluer la taille fonctionnelle d'un produit logiciel lorsque le projet n'en est qu'aux étapes les plus en amont du développement, en d'autres termes, vérifier s'il existe un fondement qui permettrait d'évaluer la taille fonctionnelle d'un produit logiciel sur la base de documents moins volumineux que des spécifications détaillées.
Notes: Type of Work: Activité de synthèse, 19980604, Research Notes: 487
1997
R Martin (1997)  Développement d'un modèle de mesures des services pour un centre d'assistance informatique (étude exploratoire)   Montréal:  
Abstract: Cette activité de synthèse porte sur le développement d'un modèle de mesures des services pour un centre d'assistance informatique aux personnes utilisant un micro-ordinateur et ses logiciels en entreprise. Cette étude exploratoire est d'envergure limitée et contient des observations sur un seul site industriel. Elle privilégie le point de vue des personnes qui utilisent les services d'un centre d'assistance informatique (CAI).Le premier objectif de cette étude exploratoire consiste à identifier les mesures utilisées ou utilisables pour les services d'un CAI. Le deuxième objectif est d'identifier la perception des mesures précédemment mises en lumière, tant du point de vue du personnel, représenté par des gestionnaires, que du point de vue de la clientèle. L'objectif final est de développer un modèle intégré de mesures pour les services d'un centre d'assistance informatique. Pour établir ce modèle nous apportons une attention particulière à la perspective de la personne qui utilise les services du CAI.Par la revue de la littérature nous avons atteint le premier objectif et identifié des mesures utilisables. D'autre part, nous n'avons pas trouvé d'étude sur la perception des mesures ou de modèle intégré de mesures des services d'un CAI. Aussi nous en avons développé un à partir d'un modèle de mesure de performance.Nous avons atteint le deuxième objectif par des entre-vues et leur analyse, lesquelles ont permis d'identifier l'opinion de la clientèle et du personnel du CAI sur l'importance des mesures et les facteurs qui peuvent influer sur cette importance. Les personnes gestionnaires de services du CAI, parlant au nom du personnel, et la clientèle divergent fréquemment d'opinion sur l'importance des mesures, surtout lorsqu'elles ont un carac-tère de gestion.L'objectif final a été atteint par la proposition de la version 1.0 d'un modèle intégré de mesures pour les services d'un centre d'assistance informatique.Le but de l'étude exploratoire est atteint. La méthode est réutilisable. La version 1.0 du modèle intégré de mesures des services pour un CAI est utilisable en entreprise.
Notes: Type of Work: Master, 19980127, Notes: Out Vinh Duong 00/04/27, Research Notes: 428
R Martin (1997)  La mesure dans un centre d'assistance informatique   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 19971114, Research Notes: 429
L Molinié (1997)  Ã‰tude exploratoire dÂ’un modèle conceptuel pur la gestion des contrats dÂ’impartition en maintenance des logiciels -   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis (Proposition d'activité de synthese), 19970528, Research Notes: 441
J -M DesRoches (1997)  Un modèle formel pour le processus de maintenance relié aux versions des systèmes d'information dans le secteur des jeux chez Loto-Québec   Montréal:  
Abstract: Les activités de maintenances des systèmes d'information du secteur des jeux chez Loto-Québec sont réalisées à l'intérieur de quatre cadres d'intervention: Support à la production; Modification hors version; Versison des systèmes et Projets de maintenance. Bien que ces activités soient de nature critique pour l'entreprise, aucun de ces cadres d'intervention n'est régi par un processuss formel ou bien défini. Ainsi, le succès des activités de maintenance reposent pratiquement uniquement sur l'expérience des personnes en place et sur les habitudes de travail développées avec les années.Dans ce contexte, la direction recherche et technologie a exprimé le besoin à court terme d'avoir la certitude que les activités, les pratiques et le processus de maintenance dans le secteur des jeux soient conformes à une ou des normes internationales, telles les normes ISO et IEEE. Ce besoinsest à court terme parce que cette formalisation lui permettra de meixu gérer les activités de maintenance et constitue un moyen d'atteindre la plupart de ses autres objectifs à plus long terme. Entre temps, la formalisation lui permettra ensuite de mettre en place un programme de mesure.Un projet de formalisation a donc été entrepris. Ce projet avait pour objectif ultime la définition d'un processus formel conforme à un ou des standards internationaux. Pour l'atteinte de cet objectif, il a fallu passer par étape d'analyse et d'évaluation du processus de maintenance actuel. Cette étape avait pour but d'identifier les pistes possibles pour l'amélioration du processus. Le processus actuel a été décrit et son niveau de maturité a été évalué à l'aide d'un modèle de maturité adapté à la maintenance. Une fois les lacunes et les pratiques à mettre en place pour les corriger identifiées, ces dernières ont été intégrées au processus actuel. Le processus résultant de cette intégration est, une fois présenté de manière à en faciliter la compréhension, devenu le modèle formel. Ce modèle intègre les pratiques identifiées pour atteindre le niveau de maturité 3 du modèle de maturité utilisé et est conforme aux standards Std 1219-1993 et ISO/IEC 12207: 1995 (E) pour le contexte des versions.
Notes: Type of Work: Master, 19971027, Notes: Out Vinh Duong 00/04/27, Research Notes: 10
R Valencia (1997)  Experimentation d'une technique de mesure de la réutilisation fonctionnelle dans des projets   Montréal:  
Abstract: L'article Measurement of Functional Reuse in Maintenance (Abran et Desharnais, 1995) identifie et mesure la réutilisation des composants logiciels dans les projets où des fonctionnalités ont été ajoutées aux applications existantes. L'approche proposée est basée sur la mesure de la réutilisation à partir d'une perspective fonctionnelle plutôt que technique.Deux concepts clés sont introduits : Un indicateur de réutilisation et un ratio prédicteur. L'indicateur de réutilisation est dérivé à partir des concepts définis dans la méthode de points de fonction et de la notion black box reuse ". Le ratio prédicteur est dérivé à partir de deux concepts. Le premier concept est basé sur la compréhension de la notion " coûts évités si on réutilise au lieu de développer ". Le deuxième concept présente la manière comment la notion de " coûts évités " peut être capturée à partir de bases de données historiques de points de fonction. Ces bases de données ont été collectées dans plusieurs industries et elles sont classifiées selon le domaine d'application informatique.L'article indique la manière de combiner le ratio prédicteur et l'indicateur de réutilisation , afin de dériver une mesure de taille fonctionnelle alternative qui prend en compte les composants réutilisables, qui ne doivent pas être redéveloppés.L'article démontre aussi comment ces ratios peuvent être intégrés dans un modèle de productivité afin d'analyser les bénéfices de la réutilisation. Dans la dernière partie de l'article, une étude de cas basé sur un ensemble de données industriels est présentée afin d'illustrer la mesure de la réutilisation fonctionnelle et leur impact dans l'analyse de la productivité dans les différents projets de maintenance.Dans ce projet de recherche, on propose d'expérimenter et tester ce modèle avec d'autres ensembles de données industrielles. Pour ce faire, on utilisera des données recueillies dans deux organisations financières canadiennes et un organisme gouvernemental du Québec.Les objectifs de cette recherche sont au nombre de trois:· Expérimenter le modèle existant à haut niveau· Vérifier la plausibilité, la complétude, la robustesse et la fiabilité du modèle proposé.· Identifier les limitations du modèle.Reliés aux objectifs, les livrables finaux du travail seront:· Un cadre expérimental et de vérification du modèle.· Illustration des cas très précis où le modèle ne s'applique pas, s'il y a lieu.Dans l'élaboration de la présente étude, le cadre expérimental de Basili est utilisé (Basili,1986).La durée totale prévue du projet est de 700 heures/personne. Sa réalisation sera accomplie dans une période approximative de sept mois, entre juin et décembre 1997."
Notes: Type of Work: Master Thesis, 19970826, Research Notes: 210
J -M DesRoches (1997)  Un modèle formel pour le processus de maintenance relié aux versions des systèmes d'information dans le secteur des jeux chez Loto-Québec   Montréal:  
Abstract:
Notes: Type of Work: Proposition de d'activité de synthèse, 19971027, Research Notes: 838
A Idri (1997)  Ã©tude préalable pour la mise au point d'un modèle d'estimation du coût de développement de logiciels: le projet MOCOMO   Rabat:  
Abstract:
Notes: Type of Work: Thèse de troisième cycle, 20010712, Research Notes: 608
L Molinié (1997)  Une approche de gestion économique de la maintenance des logiciels dans un environnement d'impartition: Une étude exploratoire   Montréal:  
Abstract: La gestion des contrats d'impartition des services informatiques suscite de l'intérêt grandissant aussi bien pour l'industrie que pour les chercheurs dans le domaine de la gestion de l'informatique. Ce sont les préoccupations reliées à l'envergure des ressources et à leur croissance qui expliquent le déploiement des contrats d'impartition portant sur la maintenance des logiciels.Malgré la forte croissance des contrats d'impartition, les objectifs économiques de limiter la croissance des coûts et à améliorer la gestion des ressources n'auraient pas été atteints dans la pratique. Dans plusieurs cas, des scénarios de frustration sont survenus entre les participants dans les processus, donnant lieu à des conflits et des litiges entre les clients et les fournisseurs des services. Ces conflits ont été expliqués dans la littérature à partir du type d'ententes contractuelles. Ces contrats, à caractère global, à coût fixe et ayant une orientation plutôt technique, définissent une relation asymétrique entre client et fournisseur, qui empêchent une gestion en détail des services et qui posent des obstacles au développement d'une relation d'affaires claire et transparente. Ce diagnostique a été confirmé lors d'un mandat en industrie portant sur l'analyse et les possibilités d'amélioration des ententes de support et maintenance des logiciels, au sein d'une grande corporation canadienne au cours de 1996. Les recherches sur l'impartition informatique ont été cependant, plus axées sur l'analyse des facteurs expliquant les décisions d'impartir. La plupart de ces recherches, orientés par la théorie des coûts de transaction n'ont pas fourni des éléments d'amélioration à la gestion courante des services informatiques impartis.Dans le cadre de cette recherche exploratoire, on propose l'utilisation d'une approche économique, afin d'orienter la gestion de la maintenance de logiciels dans un scénario d'impartition. On propose aussi un modèle conceptuel de gestion, de type normatif, basé sur l'approche économique et sur l'utilisation des concepts quantifiables et des mesures développées dans le domaine de génie logiciel.La démarche méthodologique suivie a été basée sur le cadre de Basili (1986), adapté par Abran et al. pour son application aux cas des études de type exploratoire. La définition de la recherche à partir de ce cadre, a permis d'établir les objectifs de recherche suivants :1. La proposition d'un cadre conceptuel de gestion des contrats d'impartition en maintenance des logiciels.2. La proposition d'un modèle conceptuel de gestion des services de maintenance dans un contexte d'impartition, basé sur des critères économiques.3. L'illustration, par des exemples, de quelques mesures demandées par l'implantation du modèle de gestion développé.Ces trois objectifs ont orienté la planification et la réalisation des différentes étapes de la recherche. Le résultat de chacune de ces étapes est un livrable et l'ensemble des livrables est relié à l'atteinte des objectifs. Les livrables considérés sont au nombre de quatre :1. La justification de l'utilisation d'une approche économique de la gestion des logiciels dans un contexte d'impartition.2. Un modèle conceptuel de gestion basé sur des critères économiques.3. La proposition des caractéristiques du logiciel, des services de maintenance et de l'environnement de fonctionnement du logiciel à mesurer afin d'implanter le modèle.4. Des exemples de mesure.La justification de l'approche économique (premier livrable de cette recherche) est basée sur la convenance de transplanter, à la gestion de la maintenance des logiciels, des éléments conceptuels élaborés dans le cadre de la théorie des prix (offre, demande, quantités, prix) et de la théorie de la production (coûts, productivité).Dans le modèle proposé (deuxième livrable), les décisions courantes sur les services de maintenance des logiciels seront prises sur la base des critères quantitatifs (quantités de services demandés et livrés et de prix unitaires), ce qui amène à une autre logique de gestion basée sur la connaissance des aspects économique de la maintenance des logiciels. Toutefois, l'implantation de ce modèle devra faire face à des contraintes posées par les caractéristiques propres du produit logiciel et le manque de mesures permettant d'identifier clairement les livrables des services de maintenance des logiciels. On propose alors une solution de compromis, visant l'utilisation des outils existants en génie logiciel afin d'approximer les extrants des services de maintenance et leur valorisation. Cette solution suppose une démarche basée sur le calcul du coût de l'effort comme point de départ, pour établir des prix à travers un processus de négociation entre le client et le fournisseur. L'implantation du modèle devra se faire à partir de l'inclusion des paramètres régissant la transaction des services (prix et quantités) dans les contrats d'impartition qui deviendront des véritables guides de gestion. Cette inclusion ne sera pas pourtant uniforme, mais il faudra prévoir des traitements différenciés pour les divers services en fonction des possibilités de gérer les distincts services selon les quantités livrées et les prix unitaires. L'implantation du modèle suppose aussi l'établissement des politiques de gestion flexible des prix et de gestion de la productivité.En vue de l'implantation du modèle, on présente aussi dans ce travail, un inventaire des caractéristiques du logiciel, des modifications apportées avec la maintenance et de l'environnement où le logiciel fonctionne (troisième livrable). Cet inventaire est orienté vers la définition des modèles de calcul de l'effort pour chaque catégorie de maintenance, ce qui servira de base à l'établissement des prix et à l'identification des livrables en accord avec la démarche proposée. On présente aussi des exemples de mesure (quatrième livrable) illustrant la quantification de ces caractéristiques portant sur des attributs de taille, de qualité et de complexité.
Notes: Type of Work: Master Thesis, 19971201, Research Notes: 71
1996
M Zitouni (1996)  Ã‰laboration d'un outil d'amélioration du processus de maintenance du logiciel   Montréal:  
Abstract:
Notes: Type of Work: M.Sc.A., Notes: Out Pierre 98/01/21, Research Notes: 225
F Ladouceur (1996)  Un modèle de benchmarking pour le processus de maintenance des logiciels   Montréal:  
Abstract: Afin de sélectionner un sujet pour mon travail de recherche, j'ai décidé d'utiliser une approche de type consultation chez Loto-Québec. Ce type d'approche est utile pour trouver un sujet qui est aussi pratique et utile que possible. Loto-Québec est mon employeur actuel ce qui explique la sélection de l'entreprise consultée.Avec l'intention de concentrer mon sujet de recherche en programmes de mesure et en maintenance des logiciels, j'ai rencontré le directeur de maintenance des logiciels, monsieur Jacques Bergeron. Après quelques réunions, nous avons identifié certaines faiblesses dans son processus actuel. Entre autres, il a des difficultés à faire un suivi serré des activités de maintenance, à planifier adéquatement la charge de travail, et à obtenir de la reconnaissance de la part du reste de l'entreprise pour son travail. Après lui avoir vanté les avantages des programmes de mesure, il était convaincu qu'il pourrait améliorer son processus en comparant des mesures avec d'autres entreprises. Dans la littérature, se comparer à d'autre veut dire faire du benchmarking. Le benchmarking pourrait aider Loto-Québec à voir où ils se situent par rapport à l'industrie et leur permettrait de faire l'analyse de leurs pratiques.Il n'y a pas d'exemple d'organisations de benchmarking se spécialisant dans la maintenance des logiciels. La seule organisation indépendante en benchmarking du logiciel que j'ai pu trouver International Software Benchmarking Standard Group (ISBSG)" se spécialise dans le développement des logiciels. Le benchmarking du processus de maintenance des logiciels représente donc une nouveauté. L'objectif de ce projet est de définir le modèle de maintenance des logiciels et les mesures nécessaires pour que Loto-Québec puisse se comparer à d'autres entreprises de la région.Si Loto-Québec veut comparer son processus de maintenance, il devra créer son propre groupe de benchmarking. Je propose que nous utilisions les concepts d'ISBSG pour ce nouveau groupe. Les partenaires potentiels de benchmarking recueilleraient des données selon un guide de collecte. Les données validées seront emmagasinées dansun base de données pour être traitées. Les données analysées seraient rapportées aux partenaires du groupe pour qu'ils discutent de l'efficacité deleur processus de maintenance.Ce projet définira les composantes nécessaires pour le benchmarking du processus de maintenance des logiciels mais détaillera seulement les mesures utilisées ainsi qu'un modèle commun. Afin de construire un modèle de maintenance commun, je rencontrerai personnellement un représentant de chaque entreprise intéressée. Les mesures à utiliser seront déterminées à partir de ce modèle. Par la suite, je définirai les exigences de base pour les outils à utiliser et je définirai les éléments de base d'un éventuel accord entre les entreprises. Tous les éléments du groupe seront livrés dans un plan d'implantation.J'évalue l'effort global du projet à environ 600 heures. Les réunions avec les entreprises intéressées pourront commencer en Février 1996. Le plan d'implantation devrait être disponible en Août 1996."
Notes: Type of Work: M.Sc.A., 19971114, Notes: Out Serge Oligny 98/04/01Out Pierre 98/01/21, Research Notes: 299
J J Nsiempba (1996)  Test de précision avec la métrique des points de fonction - version 4.0 IFPUG (1994)   Montréal:  
Abstract:
Notes: Type of Work: M.Sc.A., Research Notes: 96
L Laframboise (1996)  Grille d'évaluation des facteurs de risque d'un programme de mesures en génie logiciel   Montréal:  
Abstract:
Notes: Type of Work: M.Sc.A., Notes: Out Vinh Duong 99/09/08, Research Notes: 304
Q Ma (1996)  An Annotated and Classified Bibliography of Software Metrics Publications: 1988 to 1994   Sherbrooke:  
Abstract:
Notes: Type of Work: M.Sc., Research Notes: 427
1995
D Déry (1995)  Rapports d'un projet en entreprise - Un modèle de productivité pour la maintenance du logiciel   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 19970915, Research Notes: 447
N Buchy (1995)  La gestion de la maintenance assistée par ordinateur et la maintenance des logiciels   Montréal:  
Abstract: La maintenance du logiciel se compose d’un ensemble d’activités destinées à garder le logiciel opérationnel. Différents auteurs estiment que la maintenance représente 50% à 80% du budget total d’un logiciel [ART88, McC92, SWA89]. L’amélioration de la maintenance passe par l’utilisation d’outils automatisés de maintenance et l’amélioration des pratiques de gestion, du contrôle et de la planification de la maintenance [McC92, MAR83]. Des logiciels d’aide à la maintenance existent aujourd’hui mais il n’y a pas d’outil intégré de gestion de l’ensemble du processus de maintenance [ZVE94]. Dans un autre domaine, celui de la maintenance industrielle , des outils de gestion ont été développés. Ce sont les progiciels de Gestion de la Maintenance Assistée par Ordinateur (GMAO). Les gestionnaires de la maintenance utilisent ces progiciels pour gérer l’ensemble du processus de maintenance, à savoir le choix d’une politique de maintenance, les outils de maintenance, le personnel, la documentation, la planification des tâches et le budget.Il existe des similitudes entre ces deux domaines:· Les deux domaines ont des problèmes de gestion similaires.· L’évolution de la maintenance dans les deux domaines semble similaire.De plus, les experts en maintenance des logiciels pensent que l’amélioration de la gestion de la maintenance passe par l’intégration des outils et le partage de l’information [ZVE94, CHE93]. Si l’évolution de la maintenance des logiciels continue à suivre celle de la maintenance industrielle, les outils de gestion de la maintenance des logiciels seront un jour intégrés. Il nous a donc semblé intéressant et important d’identifier les concepts qui pourraient être utilisés par un outil intégré de gestion de la maintenance en étudiant les concepts utilisés par un outil de GMAO dans le domaine industriel.L’objectif de cette activité de synthèse était donc d’identifier les différents concepts utilisés en GMAO et de les arrimer aux concepts présents dans les outils actuels de gestion de la maintenance. Cette étude s’est inscrite dans le programme de recherche du Laboratoire de recherche en gestion des logiciels de l’UQAM.Pour atteindre notre objectif, trois étapes ont été nécessaires:1. Identification des concepts de la GMAO. A cette étape, nous nous sommes intéressés aux différentes fonctions d’un progiciel de GMAO pour en extraire les concepts de gestion. Nous avons identifié 7 concepts: suivi des équipements, gestion des travaux, gestion des intervenants, gestion budgétaire, analyses, gestion des achats, gestion des stocks. 2. Identification des catégories d’outils disponibles en maintenance des logiciels. Cette étape est une revue de littérature qui a permis d’identifier les différentes catégories d’outils disponibles en maintenance du logiciel. La classification de Nicholas Zvegintzov [ZVE94] a été retenue pour présenter les résultats. Cette étape était nécessaire pour connaître les différentes fonctions proposées par les outils actuels de maintenance des logiciels. 3. Arrimage des concepts de la GMAO à la maintenance du logiciel.Cette étape est la plus importante puisqu’elle fait le lien entre les deux domaines de maintenance étudiés. Les concepts identifiés à la première étape ont été arrimés à la maintenance des logiciels au niveau des fonctions que l’on retrouve dans les outils de maintenance identifiés à la seconde étape. La majorité des concepts ont été arrimés totalement ou partiellement, excepté le concept de gestion des stocks qui ne s’applique pas à la maintenance des logiciels. Les résultats de l’étude sont très importants car ils montrent que les fonctions utilisées en GMAO sont actuellement présentes dans les outils de maintenance des logiciels. Les concepts importants que l’on devrait retrouver dans un futur outil de gestion de la maintenance des logiciels ont été identifiés. Un modèle de ce que pourrait être un outil de GMAO a donc été proposé. Ce modèle pourra être utilisé par les gestionnaires de la maintenance pour développer une philosophie de GMAO et les spécifications pour un logiciel de GMAO appliqué à la maintenance des logiciels. Un outil de GMAO basé sur le modèle proposé offrirait les avantages suivants:· Meilleure gestion du parc de logiciels. - Identification de l’ensemble des composants d’un logiciel. - Suivi des modifications sur chaque composant.· Meilleure gestion des activités de maintenance par le suivi de chaque intervention.· Meilleure gestion de la documentation.· Meilleure gestion de la sous-traitance.· Connaître et diminuer les coûts de maintenance par une meilleure gestion. - Connaissance des coûts par système. - Connaissance des coûts par nature des interventions.· Aide à la décision. - Une assistance aux diagnostics. - L’identification des systèmes les plus coûteux. - L’analyse des interventions les plus coûteuses.· Amélioration de l’organisation de la maintenance et de la communication. - Homogénéité dans les procédures. - Partage de l’information de maintenance.- Disposer d’une base de données Maintenance fiable, accessible qui mémorise la connaissance et l’expérience.· Assistance dans les interventions de maintenance.· Optimisation de la maintenance par une politique de maintenance « préventive ». Enfin, les résultats de l’étude ont été présentés aux responsables de la maintenance des sociétés Loto Québec et Bell Canada qui ont apporté leur expertise dans ce domaine.
Notes: Type of Work: M.Sc.A., 19971211, Research Notes: 758
A Dakka (1995)  Modèle de prise de décision de groupe du comité de révision des normes des Points de fonction: une étude exploratoire   Montréal:  
Abstract:
Notes: Type of Work: Master thesis, 19971111, Research Notes: 490
M Maya (1995)  La technique étendue des points de fonction dans la construction des modèles de productivité en maintenance adaptative   Montreal:  
Abstract: La technique des points de fonction a été conçue pour mesurer la taille fonctionnelle des logiciels selon la perspective des usagers. Appliquée a priori, cette technique peut être utilisée pour construire des modèles d'estimation des efforts requis pour réaliser un projet informatique. Appliquée a posteriori, elle peut être utilisée pour bâtir des modèles de productivité et pouvoir ainsi comparer la productivité d'un projet informatique à un autre.Actuellement, un grand nombre d'organisations se servent de la technique des points de fonction pour faire plusieurs types d'analyses. Toutefois, il a été observé que cette technique est surtout utilisée pour mesurer la taille fonctionnelle des logiciels de grande et de moyenne envergure. Pour mesurer des logiciels d'envergure plus restreinte, tels que les livrables (extrants) des activités de maintenance adaptative, bien souvent elle n'est pas utilisée à cause de certaines contraintes imposées par sa structure de mesure. En 1989, Abran et Nguyenkim ont proposé une version étendue de la technique des points de fonction, qui introduit certaines modifications à sa structure de mesure, afin de répondre aux particularités des logiciels de petite taille fonctionnelle. En 1990, cette version étendue a été implantée dans une institution financière canadienne, mais les données de mesure accumulées depuis cette date n'avaient pas encore été analysées.Cette activité de synthèse portait donc sur l'analyse de ces données de mesure et sur la construction des modèles de productivité en maintenance adaptative basés sur la technique étendue des points de fonction. Quatre objectifs spécifiques étaient poursuivis: (1) description des caractéristiques des livrables des activités de maintenance adaptative en termes de leur taille fonctionnelle, mesurée en points de fonction étendus (PFe), et de l'effort requis pour les produire; (2) analyse de la qualité de la relation entre les points de fonction et l'effort, lorsque cette relation est utilisée comme modèle de productivité à une seule variable indépendante; (3) identification des facteurs pouvant affecter la productivité des activités de maintenance et (4) analyse de l'influence de ces facteurs sur la relation taille/effort (modèles de productivité à plusieurs variables indépendantes). Pour atteindre ces objectifs, notre démarche consistait principalement à appliquer des outils statistiques sur la banque de données mise à notre disposition par l'institution financière. Cette banque de données renferme 504 livrables des activités de maintenance de la catégorie adaptative réalisés au cours de la période 1990-1994 et qui correspondent à des logiciels d'informatique de gestion (MIS).La réalisation du projet a permis d'identifier plusieurs caractéristiques propres des livrables des activités de maintenance adaptative: leur petite taille fonctionnelle (5 PFe en moyenne), peu de temps requis pour les compléter (24 heures en moyenne) et la présence de seulement un ou deux types de composantes du processus de traitement de l'information dans un même livrable. Il a aussi été possible de confirmer empiriquement que la technique originale des points de fonction n'est pas adéquate pour mesurer des livrables de petite taille fonctionnelle, car si les différents livrables comprenant la banque de données avaient été mesurés avec cette technique, ils auraient tous obtenu à peu près la même taille fonctionnelle. Il a été également constaté que la technique étendue, en tant que technique de mesure, donne des résultats satisfaisants. Pour analyser la qualité de la relation entre la taille fonctionnelle et l'effort, lorsque utilisée comme modèle de productivité à une seule variable indépendante (PFe), plusieurs modèles avec le coût unitaire moyen et avec la technique statistique de la régression ont été construits. Cette série de modèles a indiqué que, pour l'ensemble d'observations analysé, la qualité de relation entre la taille fonctionnelle et l'effort est très faible. Ceci veut dire que les points de fonction étendus à eux seuls n'expliquent pas l'effort requis pour produire un livrable en maintenance adaptative et que cette relation toute seule n'est donc pas adéquate pour être utilisée comme modèle de productivité.Une revue de la littérature nous a permis d'identifier 21 facteurs pouvant affecter les activités de maintenance adaptative et, par conséquent, pouvant améliorer la qualité de la relation entre la taille fonctionnelle et l'effort. Parmi ces 21 facteurs, le site industriel d'où proviennent les données de mesure nous a fourni de l'information sur 7 d'entre eux. Pour vérifier l'influence de ces facteurs, plusieurs modèles de régression avec les PFe et les différents facteurs comme variables indépendantes ont été construits, mais aucun d'entre eux ne s'est avéré satisfaisant, c'est-à-dire qu'aucun des sept facteurs étudiés n'a amélioré la qualité de la relation entre les points de fonction et l'effort.Ainsi, les différentes analyses de la qualité de la relation entre les points de fonction étendus et l'effort réalisées dans cette recherche suggèrent donc que, pour l'ensemble de données analysés et les facteurs de productivité explorés, cette relation est faible et non suffisante pour être utilisée dans un modèle de productivité ou d'estimation. Les résultats de cette activité de synthèse sont considérés intéressants parce qu'il y a aujourd'hui un manque de techniques de mesure et de modèles de productivité spécifiques pour les activités de maintenance. En effet, plusieurs études ont constaté que, malgré les coûts élevés et en constante augmentation de la maintenance (entre 50% et 70% des coûts totaux du logiciel), peu de recherches ont été faites sur ce domaine, en particulier sur la productivité des activités de maintenance. Cette recherche apporte donc une contribution intéressante à l'état actuel des connaissances sur ce domaine négligé.
Notes: Type of Work: Master, 2011-12-14, Notes: Manual entry, Research Notes: 430
1993
R Bayard (1993)  La réutilisation du logiciel: une étude exploratoire   Montréal:  
Abstract:
Notes: Type of Work: Master Thesis, 19970908, Research Notes: 575
1988
S Oligny (1988)  Estimateurs de la taille d'un logiciel à partir des specifications de conception   Sherbrooke:  
Abstract: Cette étude présente des modèles d'estimation de la taille d'un logiciel mesurée en nombre de lignes de code. L'originalité de l'étude provient du fait que les métriques utilisées pour prédire le nombre de lignes de code sont disponibles durant la phase de conception d'un logiciel.Les modèles sontmis au point de façon empirique en procédant à l'analyse de quatre échantillon de mesures provenants de logiciels conçus à l'aide d'organigrammes structurels ainsi que d'un échantillon de mesures provenant d'un logiciel conçu à l'aide de diagrammes d'enchaînement d'écrans.Les modèles sont évalués à l'aide de six critères. Dans un cas, l'évaluation du modèle permet de conclure à une applicabilité immédiate.
Notes: Type of Work: Master Thesis, 19971126, Research Notes: 98
J -M Desharnais (1988)  Statistical Analysis on the Productivity of Data Processing with Development Projects using the Function Point Technique   Montréal:  
Abstract:
Notes: Type of Work: Master's Thesis, 19981007, Research Notes: 493

Technical Reports

2001
H Diab, M Frappier, R St-Denis (2001)  A Formal Definition of COSMIC-FFP for Automated Measurement of Room Specifications   [Technical Reports]  
Abstract: We propose a formalization of the COSMIC Full Function Point (COSMIC-FFP) measure for the Real-time Object Oriented Modeling (ROOM) language. COSMIC-FFP is a measure of functional size. It has been proposed by the COSMIC group as an adaptation of the function point measure for real-time systems. The COSMIC-FFP definition is general and can be applied to any specification language. We propose a formalization of this definition for the ROOM language. ROOM is now widely used for constructing real-time systems. Thebenefits of our formalization are twofold. First it eliminates measurement variance, because the COSMIC-FFP informal definition is subject to interpretation by COSMIC-FFP raters, which may lead to different measurements for the same specification, depending on the interpretation made by each rater. Second it allows the automation of COSMIC-FFP measurement for ROOM specifications, which reduces measurement costs. Finally, the formal definition of COSMIC-FFP can provide a clear and unambiguous characterization of COSMIC-FFP concepts which is helpful for COSMIC-FFP measurement for other object-oriented notations like UML.
Notes: 20010710, Research Notes: 671
P Nolin (2001)  Ã‰valuation de la conformité de la méthode COSMIC-FFP v. 2.1 à la norme 14143-1:2000   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 20010605, Research Notes: 95
P Nolin (2001)  Ã‰valuation de la conformité de la méthode COSMIC-FFP v. 2.0 à la norme 14143-1:2000   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 20010605, Research Notes: 94
2000
E Miranda (2000)  Planning and executing time-bounded projects using statistically planned incremental deliveries (SPID)   [Technical Reports]  
Abstract: Statistically Planned Incremental Deliveries (SPID) is a practical approach to planning and executing projects that need to meet hard deadlines. SPIDÂ’s objective is to guarantee that at least a minimum functionality is delivered by a required date.
Notes: 20010302, Research Notes: 436
F Dion (2000)  Gendarme - Mesure de la taille fonctionnelle   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 20001024, Research Notes: 732
1999
T Fetcke (1999)  The Warehouse Software Portfolio A Case Study in Functional Size Measurement   [Technical Reports]  
Abstract: The management of software cost, development effort and project planning are key aspects of software development. Software size is critical element in these measurement requirements. Various approaches for the measurement of software size have been formulated, among others the number of lines of source code. Functional size measurement methods have been propose to overcome some of the deficiencies of approaches based on source code. It is the goal of these methods to measure the functionality of the software, independent of its implementation.We present here a case study that demonstrates the application of five current functional size measurement methods. The case in this study is formed by the functional user requirements for a portfolio of related applications for the management of warehouses. For each of the five methods, we present an evaluation of these functional user requirements. The selected functional size measurement methods are IFPUG Function Point Analysis, release 4.0 and 4.1, Mark II Function Point Analysis, and the Full Function Points approach, version 1.0 and 2.0. The study illustrates the core concepts common to these methods and the differences in their detailed measurement processes.
Notes: Type of Work: Technical, 20000704, Research Notes: 771
S Oligny (1999)  Functional Size Measurement of Engine and AT Systems   [Technical Reports]  
Abstract:
Notes: 20000315, Research Notes: 106
1998
D T Cao (1998)  Rapport de stage   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 19981022, Research Notes: 252
T Fetcke (1998)  The Warehouse Software Portfolio an Example   [Technical Reports]  
Abstract:
Notes: 19990325, Research Notes: 370
S Oligny, J -M Desharnais (1998)  Functional Size Measurements of the TACS Software Application   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 19980713, Research Notes: 97
1997
1996
D Déry (1996)  Un modèle de productivité pour la maintenance du logiciel   [Technical Reports]  
Abstract:
Notes: Type of Work: Rapport de projet en entreprise, Research Notes: 481
O Mendes (1996)  Function Point Tool Market Survey, Version 0.9   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 19971128, Research Notes: 409
L Laframboise (1996)  Grille d'évaluation des facteurs de risque d'un programme de mesures en génie logiciel - Essai en entreprise   [Technical Reports]  
Abstract:
Notes: Type of Work: Rapport confidentiel, Research Notes: 305
F Ladouceur (1996)  Benchmarking the software maintenance process   [Technical Reports]  
Abstract: I decided to use a consultant approach at the Québec's lottery corporation (Loto-Québec) to find a subject for this research project. This type of approach was used to select a subject that is as practical and useful as possible. Loto-Québec is my current employer which explains the selection of the consulted corporation.With the intention of focusing my project on software maintenance and measurement programs, I met with the director of software maintenance. After a few meetings, we identified some weaknesses in the current maintenance process. There are difficulties to track maintenance activities, to make adequate planning for maintenance, and to get recognition of his work within the corporation. After selling him the advantages of measurement programs, he went further and the was convinced that comparing measures with other corporations would help improving his process. In the literature, comparing with others means benchmarking. Benchmaking could help Loto-Québec to see where they fit in the industry and will enable them to make analysis of their practices.There is no example of benchmarking organization I could identify is focusing on software development. Benchmarking the software maintenance process represents a novelty. The objective of this project is to define the software maintenance model and the measures necessary for Loto-Québec to compare with other corporations in the Montréal area.This project is based on four key concepts. The first concept is of course benchmarking. The objective of of benchmarking is to uncover and understand external practices that are better than those currently in place. The benchmarking process consists of finding comparative corporations and measure against them. The second concept refers to measurement programs where measures can be grouped by product attributes, resource attributes or process attributes. This project will require the identification of the maintenance process attributes. The third concept is based on the source of all measures, the maintenance process. Software maintenance refers to changes that have to be made to software programs after they have been delivered to the user. Maintenance requests are classified in three types: Corrective, adaptive, and perfective. Finally, the fourth concept is based on an organization specializing in software benchmarking. The International Software Benchmarking Standard Group (ISBSG) is made of several national software metrics associations. They have based their work on the Australian Software Metrics Association (ASMA) benchmarking system. The benchmarking group will be responsible for developing and promoting standard measures and the sharing of data to enable comparison. Unfortunately for us, they only specialize in the development process.If Loto-Québec's managers want to compare their maintenance process, they will have to create their own benchmarking group. I propose that we use some of ISBSG's work to create a new group specializaing in maintenance benchmarking. Potential benchmarking partners would collect data according to a collection package. Validated data will be stored in the data base for further processing. Analyzed data would be reported to the partners before theu start discussing the effectiveness of their maintenance process or evaluating the accuracy of the benchmarking process itself.This project will define components required for maintenance benchmarking but will only detail the standard processes and measures. First, to define a standard maintenance process, I will meet with a representative of each potential partner to determine common activities and map them in a common model based on the IEEE 1219 standard. Next, common measures will be determined from that common maintenance model. Finally, I will define the requirements for the data base and the tools needed. I will also define the basic elements of the partner's agreement (charter).Every element of the group will be package in an implementation plan. I will build that plan based on to the guide supplied in the manager's guide from the standard ISO 9126. At the end of this project the plan will need more work since more details will be needed for the data base selection, tool definition, and the charter of the partners elaboration. The proposed standard model and measures will also need to be approved by all partners.I evaluate the effort to about 600 hours to accomplish all the work. Meetings with interested corporations will start in February of 1996. The implementation plan should be available by August 1996.
Notes: Type of Work: Research Proposal, 19971215, Research Notes: 300
1995
F Ladouceur (1995)  Benchmarking the software maintenance process   [Technical Reports]  
Abstract:
Notes: Type of Work: Draft, 19971114, Research Notes: 298
O Mendes (1995)  Développement d'un protocole d'évalution pour les outils informatisés de comptage automatique de points de fonction   [Technical Reports]  
Abstract:
Notes: Type of Work: Research, none, Notes: Manual entry, Research Notes: 407
1994
Z Taboubi (1994)  Validation des données pour le modèle des points de fonction spécifique à la maintenance adaptive   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical, 19971212, Research Notes: 196
1986
S Oligny, V Côté (1986)  Ã‰laboration d'un estimateur de taille basé sur des mesures d'organigrammes structurels   [Technical Reports]  
Abstract:
Notes: Type of Work: Technical Report, 20000117, Research Notes: 125

Tutorials and Workshops

1998
S Oligny (1998)  Mesurer la taille des logiciels de type temps-réel""   [Tutorials and Workshops]  
Abstract:
Notes: 19990323, Research Notes: 103
1997
D St-Pierre, J -M Desharnais (1997)  Full Function Points   [Tutorials and Workshops]  
Abstract:
Notes: 19970904, Research Notes: 167

Invited Speakers

2005

Other Publications

2008
C Y Laporte, D Roy, R Novieli (2008)  The Management of Risks in the Development and Deployment of an IT System at the Department of Justice of the Province of Québec (in French) La gestion des risques d'un projet de développement et dÂ’implantation d'un système informatisé au Mi   [Other Publications]  
Abstract: En 1999, le Ministère de la Justice du Québec a décidé de regrouper les activités de gestion desinfractions et de perception des amendes. Plus de 700 000 dossiers sont traités et 110 millions de dollars sont perçus à chaque année. On avait noté une augmentation des comptes à recevoir et un fléchissement des recettes. Ces secteurs d’activité étaient supportés au niveau des opérations par deux systèmes informatiques. Le système de la gestion des infractions, conçu au début des années 1990, supportait l’activité de la gestion des infractions. Le système du contrôle des revenus, conçu en 1983, était utilisé par les percepteurs pour faire le suivi du paiement des amendes. Ce projet comportait le développement d’un nouveau système, soit le système de gestion des infractions et de perception des amendes, afin d’assister les activités du Bureau des infractions et amendes. Ce projet a permis une économie globale nette de 46,7 M$ soit une baisse des coûts de 35,9%. Ce projet a reçu plusieurs prix d’excellence. Dans cet article on décrit les principales phases du projet, les activités d’évaluation et de gestion des risques, une analyse financière, le bilan de projet et des recommandations pour un projet futur. La gestion des risques a contribué de façon significative au succès du projet.
Notes: Research Notes: 266

Theses

1999
E V Bevo (1999)  Application de la méthode FFP à partir d'une spécification selon la notation UML & mise en place d'un site WEB de cours portant sur la méthode FFP   [Theses]  
Abstract:
Notes: Type of Work: Master Thesis, 19991119, Research Notes: 836
1995
L Laframboise (1995)  Implantation d'un programme de mesure   [Theses]  
Abstract:
Notes: Type of Work: Travail de session INF7760, 19971211, Research Notes: 302

Proposal Thesis

1997
D Girard (1997)  Une méthode d'analyse du risque de projets de nouvelle technologie informatique   [Proposal Thesis]  
Abstract: Parmi les multiples définitions du risque, deux caractéristiques se retrouvent dans toutes ces définitions:- Incertitude - un événement peut arriver ou ne pas arriver.- Perte - un événement a des conséquences non escomptées ou des pertes.Selon Rook, l'ordre de grandeur de la perte est relié à l'impact du risque et l'élément d'incertitude à une probabilité de risque.Le processus de gestion des risques comprend de nombreux éléments différents, depuis l'identification initiale et l'analyse du risque, jusqu'à l'évaluation de son caractère tolérable et l'identification des options de réduction de risques potentiels, en passant par le choix, la mise en oeuvre et la surveillance de mesures appropriées de maîtrise et de réduction. [CEI 300-3-9, 1995]En général l'analyse du risque s'efforce de répondre à trois questions fondamentales:- Danger - Quel élément risque d'être affecté?- Fréquence - Quelle est la probabilité d'occurence de l'événement?- Conséquence - Quelles sont les conséquences?Gérer le risque ne veut pas dire seulement d'identifier les menaces, mais aussi de déterminer son impact et sa sévérité. Le résultat de cette gestion de risque offre un environnement de décisions proactives qui permet:- D'évaluer continuellement qu'est-ce qui peut aller mal (risques).- De déterminer quels sont les risques important à traiter (enjeux).- D'implanter une stratégie pour traiter ces risques (prévention).Plusieurs recherches ont été réalisées sur la gestion du risque et un grand nombre d'entre elles sont destinées aux fonctions de développement. Plusieurs principes sont applicables ou pas pour des projets d'opération ou de choix technologique.Deux groupes d'étudiants du cours Évaluation des technologies nouvelles" de l'hiver 1995 et 1996 ont développé et amélioré une grille d'évaluation du risque de projets d'innovation technologique [DesRoches, 1996]. À partir de cette grille et d'une méthode que nous avons adaptée en entreprise [Girard, 1996], un outil d'aide au calcul de risque s'avère nécessaire afin d'actualiser et d'améliorer le modèle selon le projet et d'en faciliter l'interprétation en phase de simulation ou d'analyse.L'objectif de cetta activité de synthèse est de concevoir et de développer un outil d'évaluation de risque qui supporte un modèle et une méthode améliorée en entreprise. L'étendue de cette évaluation du risque sera pour tout projet d'innovation informatique.Notre question de recherche se posera ainsi:- Comment améliorer et développer une méthode de risque pour la rendre plus flexible et capable d'intégrer rapidement des caractéristiques et des contraintes spécifiques des nouvelles technologies?Nous comptons utiliser les étapes suivantes pour réaliser cette activité de synthèse:- Développer une technique d'aide à la cueillette des informations.- Développer une technique d'aide à la modification des paramètres.- Développer une technique de compilation des résultats.- Développer un outil incomporant ces techniques.- Proposer une méthode améliorée incluant l'outil avec le modèle."
Notes: Type of Work: Activité de synthèse, 19970925, Research Notes: 317
1996
A Dakka (1996)  Modèle de prise de décision de groupe   [Proposal Thesis]  
Abstract:
Notes: Research Notes: 338

Other

T Fetcke  Investigations on the Properties of Object-Oriented Software Metrics    
Abstract: This paper presents basic methods to analyze the properties of object-oriented software metrics. The metrics are characterized with several concatenation operations on different levels of abstraction. Metrics can thereby be interpreted above the ordinal scale level. The result of this investigation is that a large set of object-oriented metrics have properties that are completely different from properties of metrics for procedural languages. This set of metrics follows the Demptest-Shafer measure of belief.
Notes: 19980716, Research Notes: 351

Presentations at Conferences or Workshops

2001
V T Ho (2001)  An introduction to SW-CMM   [Presentations at Conferences or Workshops]  
Abstract:
Notes: 20010710, Research Notes: 680
2000
V T Ho (2000)  An introduction to COSMIC-FFP   [Presentations at Conferences or Workshops]  
Abstract:
Notes: 20010710, Research Notes: 453

theses

2004
Powered by PublicationsList.org.