883 resultados para Performance evolution due time
Resumo:
Uma nova área tecnológica está em crescente desenvolvimento. Esta área, denominada de internet das coisas, surge na necessidade de interligar vários objetos para uma melhoria a nível de serviços ou necessidades por parte dos utilizadores. Esta dissertação concentra-se numa área específica da tecnologia internet das coisas que é a sensorização. Esta rede de sensorização é implementada pelo projeto europeu denominado de Future Cities [1] onde se cria uma infraestrutura de investigação e validação de projetos e serviços inteligentes na cidade do Porto. O trabalho realizado nesta dissertação insere-se numa das plataformas existentes nessa rede de sensorização: a plataforma de sensores ambientais intitulada de UrbanSense. Estes sensores ambientais que estão incorporados em Data Collect Unit (DCU), também denominados por nós, medem variáveis ambientais tais como a temperatura, humidade, ozono e monóxido de carbono. No entanto, os nós têm recursos limitados em termos de energia, processamento e memória. Apesar das grandes evoluções a nível de armazenamento e de processamento, a nível energético, nomeadamente nas baterias, não existe ainda uma evolução tão notável, limitando a sua operacionalidade [2]. Esta tese foca-se, essencialmente, na melhoria do desempenho energético da rede de sensores UrbanSense. A principal contribuição é uma adaptação do protocolo de redes Ad Hoc OLSR (Optimized Link State Routing Protocol) para ser usado por nós alimentados a energia renovável, de forma a aumentar a vida útil dos nós da rede de sensorização. Com esta contribuição é possível obter um maior número de dados durante períodos de tempo mais longos, aproximadamente 10 horas relativamente às 7 horas anteriores, resultando numa maior recolha e envio dos mesmos com uma taxa superior, cerca de 500 KB/s. Existindo deste modo uma aproximação analítica dos vários parâmetros existentes na rede de sensorização. Contudo, o aumento do tempo de vida útil dos nós sensores com recurso à energia renovável, nomeadamente, energia solar, incrementa o seu peso e tamanho que limita a sua mobilidade. Com o referido acréscimo a determinar e a limitar a sua mobilidade exigindo, por isso, um planeamento prévio da sua localização. Numa primeira fase do trabalho analisou-se o consumo da DCU, visto serem estes a base na infraestrutura e comunicando entre si por WiFi ou 3G. Após uma análise dos protocolos de routing com iv suporte para parametrização energética, a escolha recaiu sobre o protocolo OLSR devido à maturidade e compatibilidade com o sistema atual da DCU, pois apesar de existirem outros protocolos, a implementação dos mesmos, não se encontram disponível como software aberto. Para a validação do trabalho realizado na presente dissertação, é realizado um ensaio prévio sem a energia renovável, para permitir caracterização de limitações do sistema. Com este ensaio, tornou-se possível verificar a compatibilidade entre os vários materiais e ajustamento de estratégias. Num segundo teste de validação é concretizado um ensaio real do sistema com 4 nós a comunicar, usando o protocolo com eficiência energética. O protocolo é avaliado em termos de aumento do tempo de vida útil do nó e da taxa de transferência. O desenvolvimento da análise e da adaptação do protocolo de rede Ad Hoc oferece uma maior longevidade em termos de tempo de vida útil, comparando ao que existe durante o processamento de envio de dados. Apesar do tempo de longevidade ser inferior, quando o parâmetro energético se encontra por omissão com o fator 3, a realização da adaptação do sistema conforme a energia, oferece uma taxa de transferência maior num período mais longo. Este é um fator favorável para a abertura de novos serviços de envio de dados em tempo real ou envio de ficheiros com um tamanho mais elevado.
Resumo:
INTRODUCTION: Left ventricular reverse remodeling (LVRR), defined as reduction of end-diastolic and end-systolic dimensions and improvement of ejection fraction, is associated with the prognostic implications of cardiac resynchronization therapy (CRT). The time course of LVRR remains poorly characterized. Nevertheless, it has been suggested that it occurs ≤6 months after CRT.
OBJECTIVE: To characterize the long-term echocardiographic and clinical evolution of patients with LVRR occurring >6 months after CRT and to identify predictors of a delayed LVRR response.
METHODS: A total of 127 consecutive patients after successful CRT implantation were divided into three groups according to LVRR response: Group A, 19 patients (15%) with LVRR after >6 months (late LVRR); Group B, 58 patients (46%) with LVRR before 6 months (early LVRR); and Group C, 50 patients (39%) without LVRR during follow-up (no LVRR).
RESULTS: The late LVRR group was older, more often had ischemic etiology and fewer patients were in NYHA class ≤II. Overall, group A presented LVRR between group B and C. This was also the case with the percentage of clinical response (68.4% vs. 94.8% vs. 38.3%, respectively, p<0.001), and hospital readmissions due to decompensated heart failure (31.6% vs. 12.1% vs. 57.1%, respectively, p<0.001). Ischemic etiology (OR 0.044; p=0.013) and NYHA functional class
Resumo:
Due to global warming and shrinking fossil fuel resources, politics as well as society urge for a reduction of green house gas (GHG) emissions. This leads to a re-orientation towards a renewable energy sector. In this context, innovation and new technologies are key success factors. Moreover, the renewable energy sector has entered a consolidation stage, where corporate investors and mergers and acquisitions (M&A) gain in importance. Although both M&A and innovation in the renewable energy sector are important corporate strategies, the link between those two aspects has not been examined before. The present thesis examines the research question how M&A influence the acquirer’s post-merger innovative performance in the renewable energy sector. Based on a framework of relevant literature, three hypotheses are defined. First, the relation between non-technology oriented M&A and post-merger innovative performance is discussed. Second, the impact of absolute acquired knowledge on postmerger innovativeness is examined. Third, the target-acquirer relatedness is discussed. A panel data set of 117 firms collected over a period of six years has been analyzed via a random effects negative binomial regression model and a time lag of one year. The results support a non-significant, negative impact of non-technology M&A on postmerger innovative performance. The applied model did not support a positive and significant impact of absolute acquired knowledge on post-merger innovative performance. Lastly, the results suggest a reverse relation than postulated by Hypothesis 3. Targets from the same industry significantly and negatively influence the acquirers’ innovativeness.
Resumo:
Abstract The purpose of this study is to unravel the geodynamic evolution of Thailand and, from that, to extend the interpretation to the rest of Southeast Asia. The methodology was based in a first time on fieldwork in Northern Thailand and Southernmost Myanmar, using a multidisciplinary approach, and then on the compilation and re-interpretation, in a plate tectonics point of view, of existing data about the whole Southeast Asia. The main results concern the Nan-Uttaradit suture, the Chiang Mai Volcanic Belt and the proposition of a new location for the Palaeotethys suture. This led to the establishment of a new plate tectonic model for the geodynamic evolution of Southeast Asia, implying the existence new terranes (Orang Laut and the redefinition of Shan-Thai) and the role of the Palaeopacific Ocean in the tectonic development of the area. The model proposed here considers the Palaeotethys suture as located along the Tertiary Mae Yuam Fault, which represents the divide between the Cimmerian Sibumasu terrane and the Indochina-derived Shan-Thai block. The term Shan-Thai, previously used to define the Cimmerian area (when the Palaeotethys suture was thought to represented by the Nan-Uttaradit suture), was redefined here by keeping its geographical location within the Shan States of Myanmar and Central-Northern Thailand, but attributing it an East Asian Origin. Its detachment from Indochina was the result of the Early Permian opening of the Nan basin. The Nan basin closed during the Middle Triassic, before the deposition of Carnian-Norian molasse. The modalities of the closure of the basin imply a first phase of Middle Permian obduction, followed by final eastwards subduction. The Chiang Mai Volcanic Belt consists of scattered basaltic rocks erupted at least during the Viséan in an extensional continental intraplate setting, on the Shan-Thai part of the Indochina block. The Viséan age was established by the dating of limestone stratigraphically overlying the basalts. In several localities of the East Asian Continent, coeval extensional features occur, possibly implying one or more Early Carboniferous extensional events at a regional scale. These events occurred either due to the presence of a mantle plume or to the roll-back of the Palaeopacific Ocean, subducting beneath Indochina and South China, or both. The Palaeopacific Ocean is responsible, during the Early Permian, for the opening of the Song Ma and Poko back-arcs (Vietnam) with the consequent detachment of the Orang Laut Terranes (Eastern Vietnam, West Sumatra, Kalimantan, Palawan, Taiwan). The Late Triassic/Early Jurassic closure of the Eastern Palaeotethys is considered as having taken place by subduction beneath its southern margin (Gondwana), due to the absence of Late Palaeozoic arc magmatism on its northern (Indochinese) margin and the presence of volcanism on the Cimmerian blocks (Mergui, Lhasa). Résumé Le but de cette étude est d'éclaircir l'évolution géodynamique de la Thaïlande et, à partir de cela, d'étendre l'interprétation au reste de l'Asie du Sud-Est. La méthodologie utilisée est basée dans un premier temps sur du travail de terrain en Thaïlande du nord et dans l'extrême sud du Myanmar, en se basant sur une approche pluridisciplinaire. Dans un deuxième temps, la compilation et la réinterprétation de données préexistantes sur l'Asie du Sud-est la été faite, dans une optique basée sur la tectonique des plaques. Les principaux résultats de ce travail concernent la suture de Nan-Uttaradit, la « Chiang Mai Volcanic Belt» et la proposition d'une nouvelle localité pour la suture de la Paléotethys. Ceci a conduit à l'établissement d'un nouveau modèle pour l'évolution géodynamique de l'Asie du Sud-est, impliquant l'existence de nouveaux terranes (Orang Laut et Shan-Thai redéfini) et le rôle joué par le Paléopacifique dans le développement tectonique de la région. Le modèle présenté ici considère que la suture de la Paléotethys est située le long de la faille Tertiaire de Mae Yuam, qui représente la séparation entre le terrain Cimmérien de Sibumasu et le bloc de Shan-Thai, d'origine Indochinoise. Le terme Shan-Thai, anciennement utilise pour définir le bloc Cimmérien (quand la suture de la Paléotethys était considérée être représentée par la suture de Nan-Uttaradit), a été redéfini ici en maintenant sa localisation géographique dans les états Shan du Myanmar et la Thaïlande nord-centrale, mais en lui attribuant une origine Est Asiatique. Son détachement de l'Indochine est le résultat de l'ouverture du basin de Nan au Permien Inférieur. Le basin de Nan s'est fermé pendant le Trias Moyen, avant le dépôt de molasse Carnienne-Norienne. Les modalités de fermeture du basin invoquent une première phase d'obduction au Permien Moyen, suivie par une subduction finale vers l'est. La "Chiang Mai Volcanic Belt" consiste en des basaltes éparpillés qui ont mis en place au moins pendant le Viséen dans un contexte extensif intraplaque continental sur la partie de l'Indochine correspondant au bloc de Shan-Thai. L'âge Viséen a été établi sur la base de la datation de calcaires qui surmontent stratigraphiquement les basaltes. Dans plusieurs localités du continent Est Asiatique, des preuves d'extension plus ou moins contemporaines ont été retrouvées, ce qui implique l'existence d'une ou plusieurs phases d'extension au Carbonifère Inférieur a une échelle régionale. Ces événements sont attribués soit à la présence d'un plume mantellique, ou au rollback du Paléopacifique, qui subductait sous l'Indochine et la Chine Sud, soit les deux. Pendant le Permien inférieur, le Paléopacifique est responsable pour l'ouverture des basins d'arrière arc de Song Ma et Poko (Vietnam), induisant le détachement des Orang Laut Terranes (Est Vietnam, Ouest Sumatra, Kalimantan, Palawan, Taiwan). La fermeture de la Paléotethys Orientale au Trias Supérieur/Jurassique Inférieur est considérée avoir eu lieu par subduction sous sa marge méridionale (Gondwana), à cause de l'absence de magmatisme d'arc sur sa marge nord (Indochinoise) et de la présence de volcanisme sur les blocs Cimmériens de Lhassa et Sibumasu (Mergui). Résumé large public L'histoire géologique de l'Asie du Sud-est depuis environ 430 millions d'années a été déterminée par les collisions successives de plusieurs continents les uns avec les autres. Il y a environ 430 millions d'années, au Silurien, un grand continent appelé Gondwana, a commencé à se «déchirer» sous l'effet des contraintes tectoniques qui le tiraient. Cette extension a provoqué la rupture du continent et l'ouverture d'un grand océan, appelé Paléotethys, éloignant les deux parties désormais séparées. C'est ainsi que le continent Est Asiatique, composé d'une partie de la Chine actuelle, de la Thaïlande, du Myanmar, de Sumatra, du Vietnam et de Bornéo a été entraîné avec le bord (marge) nord de la Paléotethys, qui s'ouvrait petit à petit. Durant le Carbonifère Supérieur, il y a environ 300 millions d'années, le sud du Gondwana subissait une glaciation, comme en témoigne le dépôt de sédiments glaciaires dans les couches de cet âge. Au même moment le continent Est Asiatique se trouvait à des latitudes tropicales ou équatoriales, ce qui permettait le dépôt de calcaires contenant différents fossiles de foraminifères d'eau chaude et de coraux. Durant le Permien Inférieur, il y a environ 295 millions d'années, la Paléotethys Orientale, qui était un relativement vieil océan avec une croûte froide et lourde, se refermait. La croûte océanique a commencé à s'enfoncer, au sud, sous le Gondwana. C'est ce que l'on appelle la subduction. Ainsi, le Gondwana s'est retrouvé en position de plaque supérieure, par rapport à la Paléotethys qui, elle, était en plaque inférieure. La plaque inférieure en subductant a commencé à reculer. Comme elle ne pouvait pas se désolidariser de la plaque supérieure, en reculant elle l'a tirée. C'est le phénomène du «roll-back ». Cette traction a eu pour effet de déchirer une nouvelle fois le Gondwana, ce qui a résulté en la création d'un nouvel Océan, la Neotethys. Cet Océan en s'ouvrant a déplacé une longue bande continentale que l'on appelle les blocs Cimmériens. La Paléotethys était donc en train de se fermer, la Neotethys de s'ouvrir, et entre deux les blocs Cimmériens se rapprochaient du Continent Est Asiatique. Pendant ce temps, le continent Est Asiatique était aussi soumis à des tensions tectoniques. L'Océan Paléopacifique, à l'est de celui-ci, était aussi en train de subducter. Cette subduction, par roll-back, a déchiré le continent en détachant une ligne de microcontinents appelés ici « Orang Laut Terranes », séparés du continent par deux océans d'arrière arc : Song Ma et Poko. Ceux-ci sont composés de Taiwan, Palawan, Bornéo ouest, Vietnam oriental, et la partie occidentale de Sumatra. Un autre Océan s'est ouvert pratiquement au même moment dans le continent Est Asiatique : l'Océan de Nan qui, en s'ouvrant, a détaché un microcontinent appelé Shan-Thai. La fermeture de l'Océan de Nan, il y a environ 230 millions d'années a resolidarisé Shan-Thai et le continent Est Asiatique et la trace de cet événement est aujourd'hui enregistrée dans la suture (la cicatrice de l'Océan) de Nan-Uttaradit. La cause de l'ouverture de l'Océan de Nan peut soit être due à la subduction du Paléopacifique, soit aux fait que la subduction de la Paléotethys tirait le continent Est Asiatique par le phénomène du « slab-pull », soit aux deux. La subduction du Paléopacifique avait déjà crée de l'extension dans le continent Est Asiatique durant le Carbonifère Inférieur (il y a environ 340-350 millions d'années) en créant des bassins et du volcanisme, aujourd'hui enregistré en différents endroits du continent, dont la ceinture volcanique de Chiang Mai, étudiée ici. A la fin du Trias, la Paléotethys se refermait complètement, et le bloc Cimmérien de Sibumasu entrait en collision avec le continent Est Asiatique. Comme c'est souvent le cas avec les grands océans, il n'y a pas de suture proprement dite, avec des fragments de croûte océanique, pour témoigner de cet évènement. Celui-ci est visible grâce à la différence entre les sédiments du Carbonifère Supérieur et du Permieñ Inférieur de chaque domaine : dans le domaine Cimmérien ils sont de type glaciaire alors que dans le continent Est Asiatique ils témoignent d'un climat tropical. Les océans de Song Ma et Poko se sont aussi refermés au Trias, mais eux ont laissé des sutures visibles
Resumo:
Imaging studies have shown reduced frontal lobe resources following total sleep deprivation (TSD). The anterior cingulate cortex (ACC) in the frontal region plays a role in performance monitoring and cognitive control; both error detection and response inhibition are impaired following sleep loss. Event-related potentials (ERPs) are an electrophysiological tool used to index the brain's response to stimuli and information processing. In the Flanker task, the error-related negativity (ERN) and error positivity (Pe) ERPs are elicited after erroneous button presses. In a Go/NoGo task, NoGo-N2 and NoGo-P3 ERPs are elicited during high conflict stimulus processing. Research investigating the impact of sleep loss on ERPs during performance monitoring is equivocal, possibly due to task differences, sample size differences and varying degrees of sleep loss. Based on the effects of sleep loss on frontal function and prior research, it was expected that the sleep deprivation group would have lower accuracy, slower reaction time and impaired remediation on performance monitoring tasks, along with attenuated and delayed stimulus- and response-locked ERPs. In the current study, 49 young adults (24 male) were screened to be healthy good sleepers and then randomly assigned to a sleep deprived (n = 24) or rested control (n = 25) group. Participants slept in the laboratory on a baseline night, followed by a second night of sleep or wake. Flanker and Go/NoGo tasks were administered in a battery at 1O:30am (i.e., 27 hours awake for the sleep deprivation group) to measure performance monitoring. On the Flanker task, the sleep deprivation group was significantly slower than controls (p's <.05), but groups did not differ on accuracy. No group differences were observed in post-error slowing, but a trend was observed for less remedial accuracy in the sleep deprived group compared to controls (p = .09), suggesting impairment in the ability to take remedial action following TSD. Delayed P300s were observed in the sleep deprived group on congruent and incongruent Flanker trials combined (p = .001). On the Go/NoGo task, the hit rate (i.e., Go accuracy) was significantly lower in the sleep deprived group compared to controls (p <.001), but no differences were found on false alarm rates (i.e., NoGo Accuracy). For the sleep deprived group, the Go-P3 was significantly smaller (p = .045) and there was a trend for a smaller NoGo-N2 compared to controls (p = .08). The ERN amplitude was reduced in the TSD group compared to controls in both the Flanker and Go/NoGo tasks. Error rate was significantly correlated with the amplitude of response-locked ERNs in control (r = -.55, p=.005) and sleep deprived groups (r = -.46, p = .021); error rate was also correlated with Pe amplitude in controls (r = .46, p=.022) and a trend was found in the sleep deprived participants (r = .39, p =. 052). An exploratory analysis showed significantly larger Pe mean amplitudes (p = .025) in the sleep deprived group compared to controls for participants who made more than 40+ errors on the Flanker task. Altered stimulus processing as indexed by delayed P3 latency during the Flanker task and smaller amplitude Go-P3s during the Go/NoGo task indicate impairment in stimulus evaluation and / or context updating during frontal lobe tasks. ERN and NoGoN2 reductions in the sleep deprived group confirm impairments in the monitoring system. These data add to a body of evidence showing that the frontal brain region is particularly vulnerable to sleep loss. Understanding the neural basis of these deficits in performance monitoring abilities is particularly important for our increasingly sleep deprived society and for safety and productivity in situations like driving and sustained operations.
Resumo:
Open Access Scheduling has shown great promise in allowing health care practices to provide same-day access, and to match patients with their regular physicians. However, similarly to traditional clinics where appointments are pre-booked, open access clinics are also frustrated with long waits, long idle time and long overtime due to uncertainties such as patient no-shows, variable service time and variable daily demand. These aspects have not been studied previously in an open access setting. This study investigates different management options to improve clinical performance in terms of patient waiting time, doctor idle time and clinic overtime. Other factors studied with a simulation model include client load and placement of pre-booked slots. Results show that a proper panel size is critical to obtain good performance for open access clinics, and that good choices for management options depend on the client load.
Resumo:
Les changements climatiques amènent des transformations profondes de l’environnement arctique. La diminution de l’étendue de la couverture de glace permet un accès facilité aux ressources naturelles et aux communautés nordiques. Au Canada, la région arctique est caractérisée par une géographie archipélagique et un réseau de transport rudimentaire. Le transport maritime est le mode privilégié pour l’acheminement du fret aux communautés et aux sites industriels de l’Arctique. La littérature scientifique présente des lacunes importantes au sujet de la navigation commerciale dans l’Arctique canadien. Peu d’études portent sur le trafic de ravitaillement en raison de son volume peu élevé et de la faible diversité des types de produits transportés, bien qu’il s’agisse d’une activité grandement significative pour les populations et l’économie du Nord. Cette recherche vise à combler cette lacune en dressant un portrait du transport maritime et de la performance des opérations portuaires dans l’Arctique canadien. L’étude est structurée en quatre parties. Une analyse du trafic et des échanges maritimes est d’abord réalisée sous trois échelles : internationale, nationale et intra-arctique. Ensuite, l’étude de la flotte et des routes fait ressortir la distribution géographique des transporteurs. Puis, la performance des ports est mesurée grâce à des indicateurs et un système de cotation. Finalement, une évaluation des opérations maritimes arctiques est menée par l’entremise d’informations récoltées lors d’entrevues avec les membres de l’industrie maritime, de conférences et de travail de terrain. Les sujets abordés concernent l’évolution de la desserte, les défis posés par la navigation en milieu arctique et le développement des ports du Nord canadien. Les résultats de l’étude mènent à la conclusion que le transport maritime dans l’Arctique est caractérisé par une croissance positive du volume acheminé et une implication profonde des transporteurs dédiés à la desserte nordique, mais des infrastructures portuaires et maritimes sous-développées.
Resumo:
Le thème de la motivation au travail en lien avec la performance des employés captive l’intérêt des théoriciens, des chercheurs, des praticiens et des gestionnaires depuis déjà près d’un siècle. L’engouement pour l’étude de ces concepts a permis de faire des avancées scientifiques notables permettant de mieux éclairer la pratique. Cependant, on constate que la popularité de la motivation présente également certains enjeux. Notamment, la pluralité des théories rend le domaine presque étourdissant par ses connaissances éparses et ses résultats équivoques. En premier lieu, cette thèse présente une méta-analyse multithéorique réalisée à partir d’études effectuées sur le terrain examinant les liens entre la motivation au travail et la performance des travailleurs entre 1985 et 2010. Les résultats de ce bilan nous indiquent que, peu importe la théorie motivationnelle employée, la force et la direction de la relation motivation-performance sont similaires plutôt que différentes. Parmi les variables modératrices examinées, seule la source des mesures s’est révélée significative indiquant que la relation entre les variables d’intérêt est plus forte lorsque les mesures proviennent de la même source – dans notre étude elles s’avèrent toutes autodéclarées – comparativement à lorsqu’elles sont recueillies auprès de sources différentes. En second lieu, une étude en laboratoire a permis d’observer que la motivation peut évoluer sur une période très courte, soit de moins de 90 minutes, à partir de 3 mesures de motivation réparties dans le temps d’expérimentation. Plus spécifiquement, l’étude de la motivation par type et par quantité, en considérant le facteur temps, nous renseigne que la motivation intrinsèque a augmenté tandis que la motivation extrinsèque et l’amotivation ont connu une diminution. Cette étude, considérant une perspective multidimensionnelle et dynamique de la motivation, telle que proposée par le cadre conceptuel de la théorie de l’autodétermination, montre que l’évolution de la motivation de tous les participants à l’étude est semblable, peu importe leur performance. En plus de permettre l’avancement des connaissances dans le domaine de la motivation et de la performance au travail, cette thèse se démarque à plusieurs égards. D’un côté, il s’agit de la première méta-analyse multithéorique de la motivation qui soit réalisée. De l’autre côté, l’étude en laboratoire a examiné simultanément, le type et la quantité de la motivation à l’aide d’un devis à mesures répétées alors que la majorité des études se concentrent soit sur la quantité, soit sur le type et néglige souvent de considérer la variable temps. En outre, cette étude en laboratoire a été réalisée à partir d’une activité à haut potentiel de validité écologique, s’apparentant à une tâche de sélection de candidats en ressources humaines. En somme, cette thèse apporte un éclairage intéressant tant sur le plan des connaissances concernant les variables modératrices déterminantes impliquées dans les relations motivation-performance et sur le plan du rythme des variations des types de motivation que sur le plan de l’utilisation optimale et complémentaire de techniques de recherche sophistiquées. L’ensemble des recommandations découlant de ces deux études concernant la recherche et l’intervention est présenté en conclusion.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Les résultats ont été obtenus avec le logiciel "Insight-2" de Accelris (San Diego, CA)
Resumo:
Le benzo[a]pyrène (BaP) est un contaminant environnemental de la famille des hydrocarbures aromatiques polycycliques ayant été classé cancérogène chez l’humain. Cependant, la relation entre l’exposition et les effets est toujours mal documentée. L’objectif de cette thèse était de mieux documenter la relation quantitative entre l’exposition au BaP, l’évolution temporelle des biomarqueurs d’exposition et l’apparition d’altérations biologiques précoces, à partir d’études expérimentales chez le rat. Dans un premier temps, nous avons déterminé l’effet de 4 doses de BaP (0.4, 4, 10 et 40 µmol/kg) sur plusieurs biomarqueurs d’exposition (3- et 7-OHBaP, 4,5- et 7,8-diolBaP, BaPtétrol et 1,6-, 3,6- et 7,8-diones-BaP), les adduits à l’ADN et l’expression de gènes impliqués dans le métabolisme du BaP, la réparation de l’ADN et le stress oxydatif. Le BaP et ses métabolites ont été mesurés dans le sang, les tissus et les excrétas, 8 h et 24 h après l’administration intraveineuse de BaP par chromatographie liquide à ultra haute performance (UHPLC) couplée à la fluorescence. Les adduits à l’ADN ont été quantifiés dans les poumons par immuno-essai en chémoluminescence. L’expression des gènes dans les poumons a été réalisée par PCR quantitative en temps réel (qRT-PCR). Les résultats ont révélé une bonne relation dose-excrétion pour le 3-OHBaP, le 4,5-diolBaP et le 7,8-diolBaP et ils ont également renforcé l’utilité du 4,5-diolBaP comme potentiel biomarqueur du BaP en plus du 3-OHBaP. De plus, l’augmentation dose-dépendante de la formation des adduits et de l’expression de certains gènes impliqués dans le métabolisme et le stress oxydatif a suggéré l’intérêt de ces derniers comme biomarqueurs d’effet précoce. Dans un second temps, nous avons évaluer le profil cinétique des biomarqueurs en lien avec la modulation temporelle de la formation des adduits à l’ADN et de l’expression génique, en utilisant la dose de 40 µmol/kg de BaP telle qu’établie dans l’étude précédente, avec une série de mesures sur une durée de 72 h après l’injection intraveineuse de BaP. Il est apparu que le 3- et le 7-OHBaP ainsi que le 4,5- et le 7,8-diolBaP semblaient être de bons biomarqueurs d'exposition; les hydroxyBaP et diolBaP présentaient des cinétiques différentes, mais tous ces métabolites étaient corrélés de façon significative aux adduits BaPDE dans les poumons. L’expression de certains gènes et l’étude de leur profil cinétique a également permis de faire des liens avec la formation des adduits et de mieux comprendre le métabolisme du BaP. Après ces résultats, il semblait alors logique de s’intéresser à l’effet de la voie d’exposition dans un context d’exposition multiple de la population. Les données mesurées dans le sang et les excréta, après administration de 40 µmol/kg de BaP par voie intraveineuse, intratrachéale, orale, et cutanée, ont encore une fois montré l'intérêt de mesurer plusieurs métabolites pour l’évaluation de l’exposition en raison des différences en fonction de la voie d’administration du composé et des différences dans la cinétique de plusieurs biomarqueurs, notamment entre les hydroxy (3- et 7-OHBaP) et les diols-BaP (4,5- et 7,8-diolBaP). Les résultats suggèrent aussi que la mesure de ratios de concentrations de différents métabolites pourrait aider à indiquer le moment et la principale voie d’exposition. Ces données ont permis une meilleure compréhension du continuum entre l’exposition et les effets.
Resumo:
Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.
Resumo:
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.