24 resultados para Distance measuring equipment (DME)

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Communication présentée dans le cadre du programme de formation continue de la Corporation des bibliothécaires professionnels du Québec, vendredi le 11 mars 2005.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LL.M. en droit option droit des technologies de l'information"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We provide a systematic treatment of the notion of economic insecurity, assuming that an individual’s sentiment of insecurity depends on the current wealth level and its variations experienced in the past. We think of wealth as a comprehensive variable encompassing anything that may help in coping with adverse occurrences. The current wealth level could also be interpreted as incorporating the individual’s evaluation of future prospects. Variations in wealth experienced in the recent past are given higher weight than experiences that occurred in the more distant past. Two classes of measures are characterized with sets of plausible and intuitive axioms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

During tissue inflammation, infiltrated leukocytes may have physical contacts with fibroblasts. We observed that neutrophils and B lymphocytes adhered in a larger proportion than T cells on cultured fibroblasts. Microscopy showed that adhesion was also characterized by leukocyte engulfment by the fibroblasts. In migration assays, only neutrophils and B lymphocytes were selectively able to migrate through a fibroblast barrier. Adhesion and migration were increased by stimulation with tumor necrosis factor-alpha (TNF-alpha) and phorbol-12-myristate-13-acetate (PMA). Antibodies against ICAM-1/beta2 integrin blocked the interaction of neutrophils to fibroblasts. For B lymphocytes the couple VCAM-1/alpha4 integrin was also involved in this interaction. Human skin fibroblasts presented similar adhesion characteristics as rat cardiac fibroblasts. By measuring the distance between the border of migration holes and cadherin-positive adherens junctions, more than 65% of the holes correspond to the transcellular route over the paracellular route. Furthermore, vimentin staining revealed that the migration holes were highly nested by intermediate filaments in accordance with the transcellular route. Our results demonstrated that engulfment of neutrophils and B lymphocytes by fibroblasts resulted in selective passage by a transcellular route.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des études adultes sur l’œdème pulmonaire lésionnel et le Syndrome de Détresse Respiratoire Aiguë ont mené à l’établissement de recommandations sur les stratégies de ventilation mécanique à employer chez ces patients. Cependant, il n’est pas clair si les recommandations adultes sont également bénéfiques pour l’enfant. Objectif Décrire les stratégies de ventilation mécanique employées chez les enfants atteints d’un œdème pulmonaire lésionnel. Méthodes Étude épidémiologique transversale tenue dans 59 unités de Soins Intensifs Pédiatriques de 12 pays en Amérique du Nord et en Europe. Six jours d’étude ont eu lieu entre juin et novembre 2007. Les enfants atteints d’un œdème pulmonaire lésionnel étaient inclus et des données sur la sévérité de leur maladie, les paramètres de ventilation mécanique et les thérapies adjuvantes employées ont été recueillies. Résultats Des 3823 enfants dépistés, 414 (10.8%) avaient un œdème pulmonaire lésionnel et 165 (40%) ont été inclus dans l’étude (124 étaient sous ventilation mécanique conventionnelle, 27 sous ventilation à haute fréquence par oscillation et 14 sous ventilation non invasive). Dans le groupe sous ventilation conventionnelle, 43.5% étaient ventilés avec un mode contrôlé à pression, le volume courant moyen était de 8.3±3.3 ml/kg et l’utilisation de la PEP et FiO2 était hétérogène. Conclusions Cette étude démontre une hétérogénéité dans les stratégies de ventilation mécanique employées chez les enfants souffrant d’un œdème pulmonaire lésionnel. Celle-ci pourrait être en partie reliée à la robustesse des critères diagnostiques actuellement utilisés pour définir l’ALI/SDRA. Une évaluation rigoureuse de ces stratégies est nécessaire pour guider la standardisation des soins et optimiser l’issue de ces patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire de maîtrise porte sur la contribution que pourrait apporter l’Enseignement à distance par radio (EADR) dans la réduction du taux d’échec aux examens du baccalauréat 1ère partie en Haïti. De manière spécifique, nous souhaitions élaborer un programme d’ « Enseignement à distance par radio » (EADR) afin d’aider l’ensemble des candidats bacheliers des classes de Rhéto à préparer les examens du bac 1ère partie. En Haïti, l’Enseignement à distance (EAD) est pratiquement absent. De nombreux pays ayant eu des situations similaires à Haïti ont mis en place des programmes de « Formations ouvertes et à distance » (FOAD) en complémentarité avec le mode d’enseignement classique ou en mode présentiel. La complexité de la situation exige d’envisager diverses pistes pour sortir le système éducatif haïtien de cette léthargie. Si l’on ne peut considérer l’EAD comme l’unique perspective, il est par contre pertinent et souhaitable de l’envisager comme une alternative non négligeable (Lubérisse, 2003). En nous appuyant sur les principales conditions d’efficacité des FOAD définies par Karsenti (2003), les principes théoriques de type R & D (Van der Maren, 2003?), le cadre théorique de la méthodologie de l’évaluation des besoins de Chagnon et Paquette (Institut universitaire des Centres Jeunesses de Montréal, 2005) et de Roegiers, Wouters & Gerard (1992), nous avons élaboré les grandes lignes générales de ce programme d’EADR et les avons soumises à douze (12) acteurs clés du système éducatif haïtien (4 élèves, 3 parents, 2 enseignants et 3 spécialistes de la radio ou de l’EADR). Cette ébauche de programme comportait principalement les objectifs du programme d’EADR, la méthode pédagogique, le contenu et les conditions de mise en œuvre. Des données recueillies par le biais d’entrevues individuelles il ressort que l’implantation d’un programme d’EADR peut être bénéfique au système éducatif haïtien, particulièrement sur les résultats d’examens officiels du baccalauréat 1ère partie. Les douze participants à notre recherche, croient que l’objectif poursuivi par le programme d’EADR est tout à fait réalisable et important pour le public cible. Tout en notant l’aspect positif du programme d’EADR proposé, les participants réclament certaines modifications quant à la méthode pédagogique, au contenu et aux conditions de mise en œuvre. Ainsi, les recommandations faites par les douze acteurs clés du système éducatif, jointes à notre recension nous ont permis d’élaborer un nouveau programme d’EADR revu et corrigé qui pourra servir de base à une évaluation plus large.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente thèse de doctorat porte sur les processus internes au sein des équipes de travail pluriculturelles. Cette thèse se compose de trois articles et propose, d’une part, une mesure validée des valeurs culturelles au niveau individuel en langue française et, d’autre part, une mesure du degré d’homogénéité culturelle au sein des équipes de travail (ci-après ÉT). En outre, elle se penche sur la vérification empirique des nombreux liens entre l’homogénéité culturelle et les processus internes au sein des ÉT postulés par les auteurs mais jamais vérifiés empiriquement. Le premier article a pour but de faire le point sur la documentation scientifique concernant les équipes de travail pluriculturelles. Il présente une recension de la documentation portant sur ce type d’équipe, notamment l’impact présumé de la culture sur les comportements d’équipier, et les effets de la diversité culturelle sur la performance de l’équipe et sur ses processus internes. Le deuxième article, quant à lui, a pour objectif de valider la mesure des dimensions culturelles de Hofstede (1980, 1991, 1994) sur une base individuelle et en langue française. Cette étude a été réalisée en adaptant deux questionnaires, l’un développé par Hellmann (2000) et mesurant les dimensions culturelles de distance hiérarchique, de masculinité, de contrôle de l’incertitude et de collectivisme, et le second développé par Bearden, Money et Nevins (2006) et mesurant la dimension d’orientation à long terme. L’échantillon se compose de 453 répondants tous étudiants dans des programmes de baccalauréat à l’Université de Montréal et à l’Université du Québec à Montréal. Les résultats des deux analyses factorielles exploratoires effectuées ont fait ressortir sept facteurs distincts expliquant 41.6% de la variance pour le premier questionnaire et 61.6% de la variance pour le second. La composition de l’échantillon n’a pas permis de conduire d’analyse de variance afin de vérifier s’il se trouvait des différences significatives entre les différents groupes culturels de l’échantillon à l’étude, et ce, pour chacune des dimensions culturelles. Les limites de la recherche ainsi que des suggestions de recherches futures sont proposées. Enfin, le troisième article se penche sur les liens, postulés par de nombreux auteurs mais jamais confirmés empiriquement, entre l’homogénéité culturelle dans les équipes et les processus internes de l’équipe en termes de comportements productifs et de comportements contre-productifs. Afin d’étudier cette réalité, l’instrumentation de Hofstede (1980, 1991), conçue pour capter des différences au niveau des nations, a été opérationnalisée au niveau des individus (Temimi, Savoie et Duguay, 2008) et mis en relation avec les processus internes se déroulant au sein de l’équipe (Duguay, Temimi et Savoie, 2008; Rousseau, 2003; Temimi et Savoie, 2007). Cette étude a été réalisée auprès de 67 équipes variant en termes d’homogénéité culturelle. Les résultats indiquent que le degré d’homogénéité culturelle global s’avère positivement relié aux comportements productifs de l’équipe et négativement relié aux comportements contre-productifs. De plus, le degré d’homogénéité de la dimension culturelle de féminité ressort négativement relié aux comportements contre-productifs de flânerie sociale et de domination.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les difficultés croissantes de l’enseignement supérieur en matière d’accessibilité aux formations et de disponibilité de filières de qualité, dans les pays en voie de développement de l’Afrique de l’Ouest notamment, conjuguées avec le développement vertigineux des technologies de l’information et de la communication (TIC), suscitent un grand espoir de faire de la formation à distance une solution alternative crédible des formations présentielles (OCDE, 2006). Or, si la littérature s’accorde à reconnaitre aux TIC et l’interactivité qu’elles procurent des facteurs favorisant l’apprentissage (Karsenti, 2006), la réalité du terrain éducatif lui impose de reconnaitre que non seulement la révolution de la formation ouverte et à distance (FOAD) n’est pas encore d’actualité (OCDE, 2006), mais qu’elle ne le sera que si, pour faire face à la distance transactionnelle, plus accrue en formation à distance, l’apprenant ne se contente plus d’apprendre, mais d’apprendre à apprendre, ce qui exige de lui des compétences d’autonomie. Or, malgré des décennies d’intérêt et d’investissement de la recherche, le développement de l’autonomie sur le terrain reste toujours marginal, les débats philosophiques ayant pris le pas sur la quête de solutions pratiques (Albero ,2003). La question de savoir comment les éducateurs de la FOAD utilisent les solutions existantes, censées favoriser l’autonomie de l’apprenant, telles certaines formes de tutorat et de travail de groupes, n’est pas sans intérêt, puisqu’elle permet de mieux comprendre le terrain cible et sa part de responsabilité dans cet insuccès de l’autonomie. S’inscrivant en droite ligne des travaux d’Albero (2003), la présente étude organise les principes d’autonomie suivant un cadre conceptuel privilégiant l’action et le développement, selon une dimension dynamique symbolisant l’importance du soutien à accorder à l’apprenant, une dimension topologique indiquant la nécessité pour ce soutien de prendre en compte les différents aspects sur lesquels l’apprenant peut exercer son autonomie et une dimension chronologique exprimant l’importance du désétayage. De façon pratique, cette étude, démarrée en 2009 dans le contexte de la FOAD du 2IE (Institut International des Ingénieurs de l’Eau et de l’Environnement), sis à Ouagadougou au Burkina Faso, s’organise en trois articles : le premier tente de comprendre si les conditions d’efficacité de la FOAD, selon les apprenants, formulent un besoin d’apprentissage en autonomie; le second tente de comprendre, à partir des propos des tuteurs, si l’encadrement des apprenants respecte les principes d’autonomie; enfin, le troisième article s’est penché, sur la base des intentions exprimées par les concepteurs, sur le respect des principes d’autonomie par les cours. L’éloignement des apprenants et l’objectif de comprendre leurs perceptions de la FOAD, nous ont fait préférer une approche de recherche de type mixte, à la fois qualitative pour mieux comprendre leur perception (Karsenti & Savoie-Zajc, 2004) et quantitative, pour tenir compte de leur éloignement. Pour la perception des éducateurs, nous avons opté pour une approche qualitative/descriptive plus appropriée dès que l’étude vise la compréhension du phénomène social abordé (Karsenti & Savoie-Zajc, 2004). Des résultats obtenus, la perception des 62 apprenants sur les 170 initialement invités par courriel à répondre au questionnaire, semble confirmer l’autonomie de l’apprenant comme une condition de leur réussite en FOAD. La demande des apprenants pour un soutien accru, malgré l’effort actuellement consenti par l’encadrement, effort reconnu par les apprenants eux-mêmes et qu’attestent les 10 tuteurs interviewés sur une quarantaine au 2IE, devrait, toutefois, inviter à la réflexion, puisque ne s’opposant pas réellement à un apprentissage en hétéronomie. À l’analyse, il apparait que l’insatisfaction des apprenants s’expliquerait par la non-prise en compte des différents aspects susceptibles d’influencer leur apprentissage. De plus, en nous référant aux entretiens avec les 11 concepteurs de cours sur un total de 30, il apparait que, bien que conscients de la nécessité d’adapter les cours au contexte de la FOAD, ni la modularité des contenus, ni la flexibilité de la structure des cours ne semblent être prises en compte. Au final, l’étude révèle l’urgence de lutter contre les habitudes acquises en formation présentielle et la nécessité d’employer des pédagogues professionnels formés pour une pédagogie d’autonomisation. Encore faudrait-il que l’autonomie soit véritablement consacrée par la littérature comme une praxis pour signifier qu’elle n’a d’autre fin qu’elle-même, et non comme une poiesis, pour dire que l’autonomie vise une production et cesserait dès que son objectif est atteint.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur la pertinence et la faisabilité d’un programme de formation continue à distance des enseignants qualifiés de l’enseignement secondaire général public du Bénin. Elle a deux objectifs spécifiques : l’identification et l’analyse des besoins de formation continue des enseignants du secondaire du Bénin et l’étude des modalités administratives, pédagogiques et techniques de mise en place d’un tel programme dans le contexte béninois. Les recherches sont effectuées sur la base de la mise en œuvre de la technique du groupe nominal (TGN) qui a permis de générer un premier questionnaire soumis à un échantillon de 278 enseignants représentatifs des 1 488 enseignants qualifiés de l’enseignement secondaire général public du Bénin et trois autres questionnaires, basés sur la technique Delphi, adressés à 13 experts du système éducatif béninois. Il apparaît qu’un futur programme de formation continue à distance des enseignants du secondaire devrait comporter, principalement, les trois thèmes ci-après, classés par ordre de priorité : «Technologies de l’information et de la communication »; «Méthodes pédagogiques» et « Matière de spécialité ». L’utilisation de la technique Delphi a permis d’établir une liste de 23 items correspondant aux modalités administratives, pédagogiques et techniques pour la mise en œuvre de la formation. L’analyse des résultats de la technique Delphi et celle des réponses au questionnaire adressé aux enseignants ont permis d’opérer un choix de médias à utiliser et/ou à intégrer pour transmettre le savoir et soutenir l’apprentissage. Il ressort des résultats de la recherche que les enseignants béninois du secondaire ont d’importants besoins de formation continue et que la conception et la mise en œuvre d’un programme de formation à distance axée sur l’utilisation des TIC sont pertinentes et faisables au Bénin. Un modèle organisationnel de formation continue à distance a été proposé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.