967 resultados para Ambiguity success rate
Resumo:
The application of computational fluid dynamics (CFD) and finite element analysis (FEA) has been growing rapidly in the various fields of science and technology. One of the areas of interest is in biomedical engineering. The altered hemodynamics inside the blood vessels plays a key role in the development of the arterial disease called atherosclerosis, which is the major cause of human death worldwide. Atherosclerosis is often treated with the stenting procedure to restore the normal blood flow. A stent is a tubular, flexible structure, usually made of metals, which is driven and expanded in the blocked arteries. Despite the success rate of the stenting procedure, it is often associated with the restenosis (re-narrowing of the artery) process. The presence of non-biological device in the artery causes inflammation or re-growth of atherosclerotic lesions in the treated vessels. Several factors including the design of stents, type of stent expansion, expansion pressure, morphology and composition of vessel wall influence the restenosis process. Therefore, the role of computational studies is crucial in the investigation and optimisation of the factors that influence post-stenting complications. This thesis focuses on the stent-vessel wall interactions followed by the blood flow in the post-stenting stage of stenosed human coronary artery. Hemodynamic and mechanical stresses were analysed in three separate stent-plaque-artery models. Plaque was modeled as a multi-layer (fibrous cap (FC), necrotic core (NC), and fibrosis (F)) and the arterial wall as a single layer domain. CFD/FEA simulations were performed using commercial software packages in several models mimicking the various stages and morphologies of atherosclerosis. The tissue prolapse (TP) of stented vessel wall, the distribution of von Mises stress (VMS) inside various layers of vessel wall, and the wall shear stress (WSS) along the luminal surface of the deformed vessel wall were measured and evaluated. The results revealed the role of the stenosis size, thickness of each layer of atherosclerotic wall, thickness of stent strut, pressure applied for stenosis expansion, and the flow condition in the distribution of stresses. The thicknesses of FC, and NC and the total thickness of plaque are critical in controlling the stresses inside the tissue. A small change in morphology of artery wall can significantly affect the distribution of stresses. In particular, FC is the most sensitive layer to TP and stresses, which could determine plaque’s vulnerability to rupture. The WSS is highly influenced by the deflection of artery, which in turn is dependent on the structural composition of arterial wall layers. Together with the stenosis size, their roles could play a decisive role in controlling the low values of WSS (<0.5 Pa) prone to restenosis. Moreover, the time dependent flow altered the percentage of luminal area with WSS values less than 0.5 Pa at different time instants. The non- Newtonian viscosity model of the blood properties significantly affects the prediction of WSS magnitude. The outcomes of this investigation will help to better understand the roles of the individual layers of atherosclerotic vessels and their risk to provoke restenosis at the post-stenting stage. As a consequence, the implementation of such an approach to assess the post-stented stresses will assist the engineers and clinicians in optimizing the stenting techniques to minimize the occurrence of restenosis.
Resumo:
In today’s world because of the rapid advancement in the field of technology and business, the requirements are not clear, and they are changing continuously in the development process. Due to those changes in the requirements the software development becomes very difficult. Use of traditional software development methods such as waterfall method is not a good option, as the traditional software development methods are not flexible to requirements and the software can be late and over budget. For developing high quality software that satisfies the customer, the organizations can use software development methods, such as agile methods which are flexible to change requirements at any stage in the development process. The agile methods are iterative and incremental methods that can accelerate the delivery of the initial business values through the continuous planning and feedback, and there is close communication between the customer and developers. The main purpose of the current thesis is to find out the problems in traditional software development and to show how agile methods reduced those problems in software development. The study also focuses the different success factors of agile methods, the success rate of agile projects and comparison between traditional and agile software development.
Resumo:
Reconstitution of membrane proteins into lipid bilayers is a powerful tool to analyze functional as well as structural areas of membrane protein research. First, the proper incorporation of a purified membrane protein into closed lipid vesicles, to produce proteoliposomes, allows the investigation of transport and/or catalytic properties of any membrane protein without interference by other membrane components. Second, the incorporation of a large amount of membrane proteins into lipid bilayers to grow crystals confined to two dimensions has recently opened a new way to solve their structure at high resolution using electron crystallography. However, reconstitution of membrane proteins into functional proteoliposomes or 2-D crystallization has been an empirical domain, which has been viewed for a long time more like "black magic" than science. Nevertheless, in the last ten years, important progress has been made in acquiring knowledge of lipid-protein-detergent interactions and has permitted to build upon a set of basic principles that has limited the empirical approach of reconstitution experiments. Reconstitution strategies have been improved and new strategies have been developed, facilitating the success rate of proteoliposome formation and 2-D crystallization. This review deals with the various strategies available to obtain proteoliposomes and 2-D crystals from detergent-solubilized proteins. It gives an overview of the methods that have been applied, which may be of help for reconstituting more proteins into lipid bilayers in a form suitable for functional studies at the molecular level and for high-resolution structural analysis.
Resumo:
This study aimed to evaluate the effect of preoperative imaging techniques on the success and complication rates of ureteroscopy. We performed a retrospective analysis of 736 patients (455 males and 281 females), with a mean age of 45.5±15.2 years (range, 1-88 years), who underwent rigid ureteroscopic procedures for removal of ureteral stones. Patients were divided into 4 groups according to the type of imaging modality used: group I, intravenous urography (n=116); group II, computed tomography (n=381); group III, computed tomography and intravenous urography (n=91), and group IV, ultrasonography and abdominal plain film (n=148). Patients’ demographics, stone size and location, prior shock wave lithotripsy, lithotripsy technique, operation time, success rate, and rate of intraoperative complications were compared among the groups. There were no significant differences in success and complication rates among the groups. The stone-free rate after primary ureteroscopy was 87.1% in group I, 88.2% in group II, 96.7% in group III, and 89.9% in group IV (P=0.093). The overall incidence of intraoperative complications was 11.8%. According to the modified Satava classification system, 6.1% of patients had grade 1, 5.1% had grade 2, and 0.54% had grade 3 complications. Intraoperative complications developed in 12.1% of patients in group I, 12.6% of patients in group II, 7.7% of patients in group III, and 12.2% of patients in group IV (P=0.625). Our findings clearly demonstrate that ureteroscopic treatment of ureteral stones can be safely and effectively performed with no use of contrast study imaging, except in doubtful cases of anatomical abnormalities.
Resumo:
This qualitative research study used grounded theory methodology to explore the settlement experiences and changes in professional identity, self esteem and health status of foreign-trained physicians (FTPs) who resettled in Canada and were not able to practice their profession. Seventeen foreign-trained physicians completed a pre-survey and rated their health status, quality of life, self esteem and stress before and after coming to Canada. They also rated changes in their experiences of violence and trauma, inclusion and belonging, and racism and discrimination. Eight FTPs from the survey sample were interviewed in semi-structured qualitative interviews to explore their experiences with the loss of their professional medical identities and attempts to regain them during resettlement. This study found that without their medical license and identity, this group of FTPs could not fully restore their professional, social, and economic status and this affected their self esteem and health status. The core theme of the loss of professional identity and attempts to regain it while being underemployed were connected with the multifaceted challenges of resettlement which created experiences of lowered selfesteem, and increased stress, anxiety and depression. They identified the re-licensing process (cost, time, energy, few residency positions, and low success rate) as the major barrier to a full and successful settlement and re-establishment of their identities. Grounded research was used to develop General Resettlement Process Model and a Physician Re-licensing Model outlining the tasks and steps for the successfiil general resettlement of all newcomers to Canada with additional process steps to be accomplished by foreign-trained physicians. Maslow's Theory of Needs was expanded to include the re-establishment of professional identity for this group to re-establish levels of safety, security, belonging, self-esteem and self-actualization. Foreign-trained physicians had established prior professional medical identities, self-esteem, recognition, social status, purpose and meaning and bring needed human capital and skills to Canada. However, without identifying and addressing the barriers to their full inclusion in Canadian society, the health of this population may deteriorate and the health system of the host country may miss out on their needed contributions.
Resumo:
Patterns of intra-clutch egg size variation and intra-clutch hatch intervals in the Ring-billed gull (Larus delawarensis) were documented during the peak nesting period of two consecutive breeding seasons, at a colony near Port Colborne, Ontario. Egg size decreased with laying order; third laid eggs were significantly smaller than first laid eggs. Hatching of the third egg was delayed from that of first and second eggs. Intraclutch egg size differences established initial size disparities among chicks at hatch. Hatch intervals further exaggerated size disparities during the early post brood completion period. Competitive asymmetries among chicks were associated with increased mortality rates among third hatched chicks despite the lack of evidence of a sibling feeding hierarchy. Fledging success in 1987 was greater than in 1988. A "brood reduction strategy" appears to have enabled parents in 1987, to obtain an extra unit of reproductive fitness, while in 1988 parents were often unable to raise the entire brood and third chicks likely represented insurance reproductive value. Experimental broods (1988) were created in which hatch intervals were double those of natural intervals. The size disparities among chicks were significantly greater than in control broods, and the pattern of mortality among chicks suggested that first chicks benefited at a cost to second and third chicks. Parents of peak experimental broods achieved a fledging success rate similar to that of control broods. Characteristics of chick adoptions were also recorded. In each study year, 9 chicks abandoned their natal territories, 6 of which were adopted. Chicks consistently established themselves into broods where they were older than resident chicks. No direct evidence of cost to foster parents, or benefits to adopted chicks was obtained, although fledging success of adopted chicks was high.
Resumo:
The aim of this thesis is to explore the relationship between imagery, technology, and remote adult Aboriginal teacher candidates through the computer software Elluminate Live. It focuses on the implications that the role imagery plays in third generation distance education with these learners and the new media associated therein. The thesis honours the Medicine Wheel teachings and is presented within this cyclical framework that reflects Indigenous philosophies and belief systems. In accordance, Sharing Circle as methodology is used to keep the research culturally grounded, and tenets of narrative inquiry further support the study. Results indicate there are strong connections to curricula enhanced with imagery—most notably a spiritual connection. Findings also reveal that identity associated to geographical location is significant, as are supportive networks. Third generation distance education, such as Elluminate Live, needs to be addressed before Aboriginal communities open the doors to all it encompasses, and although previous literature peers into various elements, this study delves into why the graphical interface resonates with members of these communities. Of utmost importance is the insight this thesis lends to the pedagogy that may possibly evoke a transformative learning process contributing to the success rate of Aboriginal learners and benefit Aboriginal communities as a whole.
Resumo:
Adenoviruses are the most commonly used in the development of oncolytic therapy. Oncolytic adenoviruses are genetically modified to selectivity replicate in and kill tumor cells. The p53 molecule is a tumor suppressor protein that responds to viral infection through the activation of apoptosis, which is inhibited by adenovirus E1B55kDa protein leading to progressive viral lytic cycle. The non-specificity of replication has limited the use of wild type adenovirus in cancer therapy. This issue was resolved by using an E1b deleted Ad that can only replicate in cells with a deficiency in the p53 protein, a common feature of most cancer cells. Although demonstrating a moderate success rate, E1b55kDa deleted Ad has not been approved as a standard therapy for all cancer types. Several studies have revealed that E1b deleted Ad replication was independent of p53 status in the cell, as the virus replicated better in some p53 deficient cancers more than others. However, this mechanism has not been investigated deeply. Therefore, the objective of this study is to understand the relationship between p53 status, levels and functional activity, and oncolytic Ad5dlE1b55kDa replication efficiency. Firstly, five transient p53 expression vectors that contain different regulatory elements were engineered and then evaluated in H1299, HEK293 and HeLa cell lines. Data indicated that vector that contains the MARs and HPRE regulatory elements achieved the highest stability of p53 expression. Secondly, we used these vectors to examine the effect of various p53 expression levels on the replication efficiency of oncolytic Ad5dlE1b55kDa. We found that the level of p53 in the cell had an insignificant effect on the oncolytic viruses’ replication. However, the functional activity of p53 had a significant effect on its replication, as Ad5dlE1b55kDa was shown to have selective activity in H1299 cells (p53-null). In contrast, a decrease in viral replication was found in HeLa cells (p53-positive). Finally, the effect of p53’s functional activity on the replication efficiency of oncolytic Ad5dlE1b55kDa was examined. Viral growth was evaluated in H1299 cells expressing number of p53 mutants. P53-R175H mutant successfully rescued viral growth by allowing the virus to exert its mechanism of selectivity. The mechanism entailed deregulating the expression of specific genes, cell cycle and apoptosis, in the p53 pathway to promote its production leading to efficient oncolytic effect. These results confirmed that oncolytic Ad5dlE1b55kDa sensitivity is mutation-type specific. Therefore, before it is applied clinically as cancer therapy for p53 deficient tumors, the type of p53 mutation must be determined for efficient antitumor effect.
Resumo:
Depuis quelques années, Internet est devenu un média incontournable pour la diffusion de ressources multilingues. Cependant, les différences linguistiques constituent souvent un obstacle majeur aux échanges de documents scientifiques, culturels, pédagogiques et commerciaux. En plus de cette diversité linguistique, on constate le développement croissant de bases de données et de collections composées de différents types de documents textuels ou multimédias, ce qui complexifie également le processus de repérage documentaire. En général, on considère l’image comme « libre » au point de vue linguistique. Toutefois, l’indexation en vocabulaire contrôlé ou libre (non contrôlé) confère à l’image un statut linguistique au même titre que tout document textuel, ce qui peut avoir une incidence sur le repérage. Le but de notre recherche est de vérifier l’existence de différences entre les caractéristiques de deux approches d’indexation pour les images ordinaires représentant des objets de la vie quotidienne, en vocabulaire contrôlé et en vocabulaire libre, et entre les résultats obtenus au moment de leur repérage. Cette étude suppose que les deux approches d’indexation présentent des caractéristiques communes, mais également des différences pouvant influencer le repérage de l’image. Cette recherche permet de vérifier si l’une ou l’autre de ces approches d’indexation surclasse l’autre, en termes d’efficacité, d’efficience et de satisfaction du chercheur d’images, en contexte de repérage multilingue. Afin d’atteindre le but fixé par cette recherche, deux objectifs spécifiques sont définis : identifier les caractéristiques de chacune des deux approches d’indexation de l’image ordinaire représentant des objets de la vie quotidienne pouvant influencer le repérage, en contexte multilingue et exposer les différences sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images à repérer des images ordinaires représentant des objets de la vie quotidienne indexées à l’aide d’approches offrant des caractéristiques variées, en contexte multilingue. Trois modes de collecte des données sont employés : l’analyse des termes utilisés pour l’indexation des images, la simulation du repérage d’un ensemble d’images indexées selon chacune des formes d’indexation à l’étude réalisée auprès de soixante répondants, et le questionnaire administré aux participants pendant et après la simulation du repérage. Quatre mesures sont définies pour cette recherche : l’efficacité du repérage d’images, mesurée par le taux de succès du repérage calculé à l’aide du nombre d’images repérées; l’efficience temporelle, mesurée par le temps, en secondes, utilisé par image repérée; l’efficience humaine, mesurée par l’effort humain, en nombre de requêtes formulées par image repérée et la satisfaction du chercheur d’images, mesurée par son autoévaluation suite à chaque tâche de repérage effectuée. Cette recherche montre que sur le plan de l’indexation de l’image ordinaire représentant des objets de la vie quotidienne, les approches d’indexation étudiées diffèrent fondamentalement l’une de l’autre, sur le plan terminologique, perceptuel et structurel. En outre, l’analyse des caractéristiques des deux approches d’indexation révèle que si la langue d’indexation est modifiée, les caractéristiques varient peu au sein d’une même approche d’indexation. Finalement, cette recherche souligne que les deux approches d’indexation à l’étude offrent une performance de repérage des images ordinaires représentant des objets de la vie quotidienne différente sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images, selon l’approche et la langue utilisées pour l’indexation.
Resumo:
Le virus de l’hépatite C (VHC) est un problème mondial. La majorité des personnes infectées (70-85%) développent une infection chronique qui cause des complications hépatiques. Le seul régime thérapeutique approuvé pour le VHC est l'interféron alpha (IFN-α). Ce traitement a un taux de réussite de 50-80% selon le génotype de virus et le moment de l'initiation de la thérapie. Les facteurs régissant la réponse au traitement ne sont pas bien définis. Des études antérieures ont suggéré un rôle potentiel de la réponse immunitaire de l'hôte au succès de la thérapie, toutefois, ces résultats sont controversés. Nous avons émis l'hypothèse que la réponse immunitaire de l’hôte sera plus efficace chez les patients qui commencent la thérapie tôt pendant la phase aiguë de l'infection. En revanche, la réponse immunitaire sera épuisée lorsque le traitement est initié pendant la phase chronique. L'objectif principal de ce mémoire est d’étudier les facteurs immunologiques qui régissent la réponse à la thérapie, et de déterminer si la contribution de la réponse immunitaire de l'hôte peut être influencée par la période de l'infection. Nos résultats démontrent l'efficacité de la restauration de la réponse immunitaire spécifique au VHC lorsque la thérapie par l'interféron est initiée tôt. Ceci est démontré par le sauvetage des cellules T efficaces spécifiques au VHC efficace similaires à celles observées chez les individus qui ont résolu spontanément, suggérant ainsi qu'elles jouent un rôle actif dans la réponse au traitement. Toutefois, cette réponse n'a pas été restaurée chez les patients traités au cours de la phase chronique. Ces résultats ont des implications importantes dans la compréhension des mécanismes sous-jacents à la réponse aux traitements actuels et au développement des nouvelles thérapies.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
Cette étude cherche à clarifier les trajectoires de l’intégration des immigrants iraniens travaillant comme chauffeurs de taxi à Montréal. En effet, les conclusions de certaines études portant sur l’amélioration de l’insertion professionnelle des immigrants à moyen et à long terme étaient en opposition avec l’état actuel d’immigrants qualifiés travaillant toujours dans l’industrie du taxi après cinq, dix, quinze ans ou même plus après leur arrivée, bien que plusieurs avaient déjà une formation universitaire avant leur arrivé au Canada. Effectuée dans le cadre des études sur l’intégration des immigrants en général et en particulier au Canada et au Québec, cette recherche fait ressortir des résultats plus larges que les expériences de ce groupe après son arrivée dans le pays d’accueil en incluant les attentes et les motifs avant le départ. L’utilisation d’une démarche plutôt qualitative à partir des expériences et des trajectoires d’environ une quarantaine de chauffeurs de taxi travaillant dans une société de taxi montréalaise dont la majorité des travailleurs sont iraniens a permis de dépasser les difficultés liées à l’étude de ce groupe ainsi que d’en approfondir la connaissance. Cette étude se divise en deux parties. La première familiarise le lecteur avec l’histoire de l’immigration et celle des Iraniens au Canada ainsi qu’avec le cadre conceptuel et l’approche méthodologique de cette recherche. La deuxième partie, présentant les résultats, révèle le fait que plusieurs dans ce groupe d’immigrants n’ont pas eu accès aux droits de scolarité réduits offerts aux résidents québécois avant la régularisation de leur demande d’asile, ce qui a eu pour résultat de freiner leur grand désir de poursuivre des études au Canada. Ce blocage les a confinés dans des emplois de bas niveaux. Les cours peu avancés de français offerts aux immigrants n’ont pas pu les préparer à accéder aux bons emplois. Également, ce groupe a rejeté l’aide des agents d’emploi à cause des bas niveaux d’emplois que ceux-ci offraient. Alors que les périodes de chômage ont pu encourager certains à poursuivre leurs études, la discrimination après le 11 septembre 2001 a barré leur accès aux emplois qualifiés. La communauté iranienne n’a pas contribué à l’accès de ses membres aux emplois qualifiés à cause de son émergence récente au Canada. Ainsi, pour certains, le partenariat avec des compatriotes qu’ils connaissaient à peine et non experts dans la création d’entreprises, qui de plus ne se préoccupaient pas des exigences du métier, a abouti à leur fermeture. La comparaison entre les emplois déjà occupés et les avantages matériels et non matériels du taxi a mené ce groupe à recourir à ce métier. Pourtant, ses désavantages ont causé le départ non réfléchi de certains du Québec, mais ils sont revenus par la suite. Les traits culturels de ce groupe dans une société ethnique de taxi bien réglementée ont permis d’améliorer le fonctionnement de cette société. Enfin, malgré le désir de bon nombre de ces immigrants de changer d’emploi, l’analyse suggère que la probabilité reste, pour la majorité, peu élevée.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Les avancées technologiques liées à l’internet ont permis une démocratisation des outils de communication et une transformation des relations interpersonnelles. L’impact de ces changements s’est ressenti autant dans la sphère légitime que dans les marchés criminels. Ces derniers ont migré, au cours des dernières années, vers des plateformes en ligne qui leur permettent de mieux gérer les risques associés avec leurs activités illégales. Cette thèse s’intéresse à l’impact de l’internet sur la criminalité et sur l’adaptation des criminels à cet environnement virtuel. Ces derniers forment maintenant des communautés en ligne et gardent le contact entre eux à l’aide de salles de clavardage et de forums de discussions. Nous nous intéresserons dans cette thèse à trois formes particulières de crime soit la fraude de propriété intellectuelle (la scène des warez), le piratage d’ordinateurs (les botnets) ainsi que la fraude de données personnelles et financières (le carding). Chacune de ces formes de crime sera analysée à l’aide d’un article publié ou présentement en évaluation. L’article sur la scène des warez décrit l'organisation sociale ainsi que la distribution de la reconnaissance dans la communauté des pirates informatiques. Les systèmes de délinquance (Sutherland, 1947) et l’individualisme réseauté (Boase & Wellman, 2006) sont utilisés pour théoriser l'organisation sociale et la distribution de la reconnaissance dans la scène warez. L’article sur les botnets tente de comprendre la distribution de la réputation dans une communauté de criminels. En utilisant les données d’un forum de discussion où des botmasters louent et achètent des biens et services illégaux, cette recherche modélise les facteurs qui permettent d’augmenter le niveau de réputation de certains acteurs. Finalement l’article sur le carding mesure le lien entre la réputation telle que développée par Glückler & Armbrüster (2003) et la performance criminelle. Notre thèse démontre que l’internet a eu un effet transformateur sur la criminalité à six niveaux : 1) l’augmentation de la facilité à trouver des co-criminels; 2) l’augmentation de la compétition entre les criminels; 3) l’augmentation du nombre de victimes; 4) la diminution des risques d’arrestation; 5) l’augmentation du taux de réussite des criminels et; 6) les changements dans l’équilibre entre criminels, victimes et protecteurs. Elle nous permet également de démontrer l’importance de la réputation, le capital virtuel, dans les marchés criminels en ligne.
Resumo:
Réalisé sous la co-direction des Drs Denis Bouchard et Michel Pellerin