986 resultados para Approches de changement


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus de l’immunodéficience humaine de type 1 (VIH-1) est responsable du syndrome de l’immunodéficience acquise (SIDA). Il faut identifier de nouvelles cibles pour le développement d’agents anti-VIH-1, car ce virus développe une résistance aux agents présentement utilisés. Notre but est d’approfondir la caractérisation de l’étape du changement de cadre de lecture ribosomique en -1 (déphasage -1) nécessaire à la production du précurseur des enzymes du VIH-1. Ce déphasage est programmé et effectué par une minorité de ribosomes lorsqu’ils traduisent la séquence dite glissante à un endroit spécifique de l’ARN messager (ARNm) pleine-longueur du VIH-1. L’efficacité de déphasage est contrôlée par le signal stimulateur de déphasage (SSF), une tige-boucle irrégulière située en aval de la séquence glissante. La structure du SSF est déroulée lors du passage d’un ribosome, mais elle peut se reformer ensuite. Nous avons montré que des variations de l’initiation de la traduction affectent l’efficacité de déphasage. Nous avons utilisé, dans des cellules Jurkat-T et HEK 293T, un rapporteur bicistronique où les gènes codant pour les luciférases de la Renilla (Rluc) et de la luciole (Fluc) sont séparés par la région de déphasage du VIH-1. La Rluc est produite par tous les ribosomes traduisant l’ARNm rapporteur alors que la Fluc est produite uniquement par les ribosomes effectuant un déphasage. L’initiation de ce rapporteur est coiffe-dépendante, comme pour la majorité des ARNm cellulaires. Nous avons examiné l’effet de trois inhibiteurs de l’initiation et montré que leur présence augmente l’efficacité de déphasage. Nous avons ensuite étudié l’effet de la tige-boucle TAR, qui est présente à l’extrémité 5’ de tous les ARNm du VIH-1. TAR empêche la liaison de la petite sous-unité du ribosome (40S) à l’ARNm et module aussi l’activité de la protéine kinase dépendante de l’ARN double-brin (PKR). L’activation de PKR inhibe l’initiation en phosphorylant le facteur d’initiation eucaryote 2 (eIF2) alors que l’inhibition de PKR a l’effet inverse. Nous avons étudié l’effet de TAR sur la traduction et le déphasage via son effet sur PKR en utilisant TAR en trans ou en cis, mais à une certaine distance de l’extrémité 5’ afin d’éviter l’interférence avec la liaison de la 40S. Nous avons observé qu’une faible concentration de TAR, qui active PKR, augmente l’efficacité de déphasage alors qu’une concentration élevée de TAR, qui inhibe PKR, diminue cette efficacité. Nous avons proposé un modèle où des variations de l’initiation affectent l’efficacité de déphasage en modifiant la distance entre les ribosomes parcourant l’ARNm et, donc, la probabilité qu’ils rencontrent un SSF structuré. Par la suite, nous avons déterminé l’effet de la région 5’ non traduite (UTR) de l’ARNm pleine-longueur du VIH-1 sur l’efficacité de déphasage. Cette 5’UTR contient plusieurs régions structurées, dont TAR à l’extrémité 5’, qui peut interférer avec l’initiation. Cet ARNm a une coiffe permettant une initiation coiffe-dépendante ainsi qu’un site d’entrée interne des ribosomes (IRES), permettant une initiation IRES-dépendante. Nous avons introduit cette 5’UTR, complète ou en partie, comme 5’UTR de notre ARNm rapporteur bicistronique. Nos résultats démontrent que cette 5’UTR complète inhibe l’initiation coiffe dépendante et augmente l’efficacité de déphasage et que ces effets sont dus à la présence de TAR suivie de la tige-boucle Poly(A). Nous avons aussi construit un rapporteur tricistronique où les ribosomes exprimant les luciférases utilisent obligatoirement l’IRES. Nous avons observé que cette initiation par l’IRES est faible et que l’efficacité de déphasage correspondante est également faible. Nous avons formulé une hypothèse pour expliquer cette situation. Nous avons également observé que lorsque les deux modes d’initiation sont disponibles, l’initiation coiffe dépendante est prédominante. Finalement, nous avons étudié l’effet de la protéine virale Tat sur l’initiation de la traduction et sur l’efficacité de déphasage. Nous avons montré qu’elle augmente l’initiation de la traduction et que son effet est plus prononcé lorsque TAR est située à l’extrémité 5’ des ARNm. Nous proposons un modèle expliquant les effets de Tat sur l’initiation de la traduction par l’inhibition de PKR ainsi que par des changements de l’expression de protéines cellulaires déroulant TAR. Ces résultats permettent de mieux comprendre les mécanismes régissant le déphasage du VIH-1, ce qui est essentiel pour le développement d’agents anti-déphasage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’adénovirus a été étudié dans l’optique de développer de nouveaux traitements pour différentes maladies. Les vecteurs adénoviraux (AdV) sont des outils intéressants du fait qu’ils peuvent être produits en grandes quantités (1X1012 particules par millilitre) et de par leur capacité à infecter des cellules quiescentes ou en division rapide. Les AdVs ont subi bon nombre de modifications pour leur permettre de traiter des cellules tumorales ou pour transporter des séquences génétiques exogènes essentielles pour le traitement de maladies monogéniques. Toutefois, les faibles niveaux d’expression du récepteur primaire de l’adénovirus, le CAR (récepteur à l’adénovirus et au virus coxsackie), réduit grandement l’efficacité de transduction dans plusieurs tumeurs. De plus, certains tissus normaux comme les muscles n’expriment que très peu de CAR, rendant l’utilisation des AdVs moins significative. Pour pallier à cette limitation, plusieurs modifications ont été générées sur les capsides virales. L’objectif de ces modifications était d’augmenter l’affinité des AdVs pour des récepteurs cellulaires spécifiques surexprimés dans les tumeurs et qui seraient exempts dans les tissus sains avoisinant. On peut mentionner dans les approches étudiées: l’utilisation de ligands bispécifiques, l’incorporation de peptides dans différentes régions de la fibre ou la substitution par une fibre de sérotypes différents. Notre hypothèse était que les domaines d’interaction complémentaire (K-Coil et ECoil) permettraient aux ligands de s’associer aux particules virales et d’altérer le tropisme de l’AdV. Pour ce faire, nous avons inclus un domaine d’interaction synthétique, le K-Coil,dans différentes régions de la fibre virale en plus de générer des mutations spécifiques pour abolir le tropisme naturel. Pour permettre la liaison avec les récepteurs d’intérêt dont l’EGF-R, l’IGF-IR et le CEA6, nous avons fusionné le domaine d’interaction complémentaire, le E-Coil, soit dans les ligands des récepteurs ciblés dont l’EGF et l’IGF-I, soit sur un anticorps à un seul domaine reconnaissant la protéine membranaire CEA6, l’AFAI. Suite à la construction des différents ligands de même que des différentes fibres virales modifiées, nous avons determiné tout d’abord que les différents ligands de même que les virus modifiés pouvaient être produits et que les différentes composantes pouvaient interagir ensemble. Les productions virales ont été optimisées par l’utilisation d’un nouveau protocole utilisant l’iodixanol. Ensuite, nous avons démontré que l’association des ligands avec le virus arborant une fibre modifiée pouvait entraîner une augmentation de transduction de 2 à 21 fois dans différentes lignées cellulaires. À cause de la difficulté des adénovirus à infecter les fibres musculaires occasionnée par l’absence du CAR, nous avons cherché à savoir si le changement de tropisme pourrait accroître l’infectivité des AdVs. Nous avons démontré que l’association avec le ligand bispécifique IGF-E5 permettait d’accroître la transduction autant dans les myoblastes que dans les myotubes de souris. Nous avons finalement réussi à démontrer que notre système pouvait induire une augmentation de 1,6 fois de la transduction suite à l’infection des muscles de souriceaux MDX. Ces résultats nous amènent à la conclusion que le système est fonctionnel et qu’il pourrait être évalué dans des AdVs encodant pour différents gènes thérapeutiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la montée en popularité d’Internet et des médias sociaux, de plus en plus d’organismes sociaux et publics, notamment, intègrent des plateformes Web à leurs volets traditionnels. La question d’Internet demeure toutefois peu étudiée eu égard à la publicité sociale. Ce mémoire porte donc sur la question du Web en relation avec les campagnes sociales adressées aux jeunes Québécois de 18 à 25 ans, une population particulièrement réceptive aux nouvelles technologies. Plus exactement, dans cette étude, nous avons analysé trois sites Web rattachés à des campagnes sociales (La vitesse, ça coûte cher de la SAAQ, Les ITSS se propagent du MSSS et 50 000 adeptes, 5 000 toutous de la Fondation CHU Sainte-Justine) dans l’objectif de déterminer leurs forces et leurs faiblesses pour ensuite proposer des pistes pour leur optimisation. C’est à l’aide d’une analyse critique de contenu suivie d’entrevues et d’observations individuelles auprès de 19 participants que nous sommes parvenue à suggérer des pistes pour l’optimisation des sites Web de campagnes sociales destinées aux jeunes adultes québécois. Une des plus grandes difficultés en ce qui a trait à leur conception consiste à choisir les stratégies les plus appropriées pour provoquer un changement d’attitude ou de comportement, a fortiori chez ceux qui adoptent des comportements à risque (fumer, conduire en état d’ébriété, avoir des relations sexuelles non protégées); des stratégies qui, pour être plus efficaces, devraient être adaptées en fonction des caractéristiques propres aux publics cibles et aux médias de diffusion. Afin d’analyser adéquatement les campagnes sociales, nous avons fait appel aux théories de la persuasion et aux théories sur l’influence des médias jugées pertinentes dans notre contexte puisqu’elles sont propres à ce type d’étude. Ces approches combinées nous ont permis d’intégrer à l’analyse d’une campagne donnée les contextes qui l’entourent et les pratiques dans lesquelles elle s’inscrit. Cette étude nous a, entre autres, permis de démontrer qu’il existait d’importants écarts entre les attentes et les besoins des internautes et l’offre des sites Web étudiés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche a bénéficié du soutien de plusieurs organismes. D’abord, je remercie le Conseil de recherche en sciences humaines du Canada (CRSH) de m’avoir accordé la bourse J.A. Bombardier – bourse de recherche pour la maitrise. Je remercie également le département de philosophie pour les quelques bourses de recherche et de voyage qui m’ont été offertes au cours de mes études de deuxième cycle au département. Je tiens finalement à exprimer ma gratitude envers le Groupe de recherche interuniversitaire en philosophie politique (GRIPP) pour son soutient financier ainsi que pour l’expérience enrichissante qu’il m’a promulgué. Une partie de ce mémoire a été présentée en avril 2012 à la Graduate Conference on Global Justice, tenue à la Gallatin School, New York University.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Québec, la Loi 113 a été adoptée en 2002 pour réduire l’incidence et les conséquences des événements indésirables survenus en cours de soins de santé. Cette loi oblige à effectuer plusieurs modifications tant au niveau administratif que clinique, notamment, la création de comités de gestion du risque, l’établissement de politiques pour la divulgation aux patients et la déclaration systématique des événements indésirables dans les institutions hospitalières. Cependant, la capacité de ces établissements à implanter les mesures requises par la loi a été mise en doute par certains auteurs. L’objectif de cette thèse a été d’étudier le processus d’implantation de la loi 113 à partir d’un cadre théorique intégrant les approches dites de développement organisationnel, institutionnelle et politique. Pour cela, nous avons mené une étude de cas multiples, chaque cas étant représenté par un type d’hôpital qualifié dans le contexte de notre étude de « petit », « grand » et « universitaire ». Les procédures de cueillette des données ont consisté en des entrevues avec des administrateurs et des professionnels de santé, des séances d’observation de comités de gestion des risques, et une analyse de documents issus des secteurs administratifs de chaque institution. Les résultats suggèrent une implantation progressive et variable de la loi d’un hôpital à l’autre et la présence de conflits entre les pratiques professionnelles ou organisationnelles et les nouvelles normes légales. Ces dernières semblent avoir été adoptées au niveau administratif, tandis que les normes professionnelles et organisationnelles ont continué à prédominer au niveau clinique, une situation ayant entraîné un climat de méfiance entre les milieux administratif et clinique, plus particulièrement parmi les médecins de chaque établissement hospitalier. Les résultats de notre étude indiquent également que les stratégies ayant le plus contribué au changement résultent d’une forte légitimité et du leadership des principaux agents de changement, comme la gouverne et le gestionnaire de risque, et de la gestion avisée de l’environnement organisationnel. Cependant, malgré les efforts continus mobilisés au sein de chaque établissement pour implanter la loi, on a pu constater la persistance d’une résistance de certains acteurs clefs. En conclusion, l’implication et la contribution des détenteurs d’enjeux internes et externes de l’organisation sont nécessaires pour aboutir à une vision commune et aligner les différentes interventions afin d’assurer le succès de l’implantation de la loi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse de doctorat effectuée en cotutelle au Département d’administration de la santé Faculté dedecine, Université de Montréal et à l’École doctorale Biologie-Santé Faculté dedecine, Université de Nantes, France

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’étude de la gestion du changement s’attache à identifier ce qui peut être agissant dans l’organisation, la faisant évoluer dans un sens favorable ou défavorable aux objectifs définis par ceux qui en ont la charge. La présente étude a pour objet de comparer les propositions d’une approche ventriloque de la communication, telle qu’elle est formulée par François Cooren dans Action and agency in dialogue (2010) avec deux ouvrages traitant du changement organisationnel : The knowledge-creating company (Notaka & Takeuchi, 1995) et La Danse du changement (Senge, 1999). L’objectif est d’examiner dans quelle mesure la perspective ventriloque permet une meilleure compréhension de la nature et des contributions de ces différentes formes d’agentivité. A travers cet examen comparatif, l’ambition de ce travail est aussi d’offrir un point de vue sur la ventriloquie elle-même qui mette en exergue ses aspects les plus novateurs et démontre ainsi l’avancée représentée notamment par l’agentivité non humaine et la dislocalité de l’interaction.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le droit international prend de plus en plus d’expansion au sein de la société internationale. En fait, grâce à plusieurs acteurs, le droit international s’étend maintenant à de nombreux domaines tels que l’environnement, le droit humanitaire, l’énergie, etc. Or, parallèlement à cette expansion du droit international, on craint maintenant sa fragmentation. Face à ce nouveau phénomène, il y a lieu de se poser la question suivante : s’il y existe un phénomène de fragmentation du droit international, cela signifie-t-il qu’une unité, qui semblait exister a priori dans ce droit, est en train de disparaître, ou bien assistons-nous plutôt à un changement de paradigme? Pour répondre, à cette interrogation, l’auteur analyse tout d’abord les différents facteurs de fragmentation du droit international et observe que ce droit devient de plus en plus complexe, voire même désordonné. Le tout, à l’opposé de la vision traditionnelle d’unité que l’on a du droit. Quels éléments de solution peuvent alors être apportés pour réduire cette fragmentation? Pour le savoir, l’auteur analyse l’unité du droit en fonction de deux paradigmes : le normativisme et le pluralisme juridique. Dans le premier, c'est la hiérarchie des normes qui va donner lieu à un ordre et à une unité du droit. Dans le second, le droit est perçu comme une institution qui apporte la cohésion et il existe autant d’ordres juridiques qu’il y existe d’institutions. C'est dans ce contexte que naît une certaine unité générale grâce à divers types de rapports entre les différents ordres juridiques. Mais en droit international, l’idée d’organisation hiérarchique des normes ne pourrait englober toute la complexité grandissante de la société pluraliste internationale. C'est pourquoi, l’auteur conclu que la fragmentation du droit international signifie un changement de paradigme : ce n’est plus la théorie normativiste qui permet d’englober la toute la complexité naissante du droit international mais bien la théorie du pluralisme juridique.